正在阅读:

人工智能如何跳出图灵束缚,重新启动

扫一扫下载界面新闻APP

人工智能如何跳出图灵束缚,重新启动

我们今天所做的一切以及被称为AI的东西,都是能够语言化的、某种形式的自动化。在很多领域,这些能发挥作用,但是,这和用Excel代替纸张表格来帮助会计并没有太大不同。

图片来源:视觉中国

编者按:计算机视觉与AI专家Filip Piekniewski不久前发布的博客《AI冬天快来了》在网上引发热议,许多大公司的专家也参与了辩论和讨论。该文主要对深度学习提出了批评,认为这项技术远算不上革命性,而且面临各种瓶颈。

两周前,作者把自己对AI的看法进行了归纳,认为AI被图灵定义限定在狭窄范围,我们需要如何跳出框架、面对现实,哪些问题可以修复。

以下是界面编译的他的十个观点:

1.我们掉入了图灵关于智能的定义的陷阱。在著名的图灵公式中,他把智能限定为一场对手为人类的语言游戏。这就把智能设定为(1)一个游戏的解决方案(2)将人类摆在裁判的位置上。这个定义极有欺骗性,因而不是特别适合这个领域。狗、猴子、大象甚至啮齿动物都非常智能,但却不会说话,因此在图灵测试里它们是过不了关的。

2.AI的核心问题是莫拉维克悖论(Moravec's Paradox)(注:莫拉维克说,“要让电脑如成人般地下棋是相对容易的,但是要让电脑有如一岁小孩般的感知和行动能力却是相当困难甚至是不可能的。”)。这个悖论是1988年首次阐述的,30年过去了,我们在这方面的进展如此之少,真是令人尴尬。这个悖论的主题是,最简单的现实显然要比最复杂的游戏还要复杂得多。我们痴迷于博弈(以及其他限制严格且定义明确的话语范围,如数据集)中的超人表现,以此作为智能的标志。我们完全忽视了一个事实——是现实本身,而不是人类的某个委员会,才能某个参与者的智能做出终极评判。

3.我们的模型或许有效,但其原因往往是错误的。深度学习就是一个明显的例子。表面上我们解决了对象识别,但无数研究表明,深度网络能够识别对象的原因,跟人类能发觉对象的原因有着巨大差异。有些人出于图灵测试理念只想着怎么愚弄人,对他们来说,这个问题也许并不重要。而对那些关心如何让人工代理能够处理意外(域外)现实的人来说,这个问题就至关重要了。

4.现实不是游戏。如果说两者有相似性,那就是,现实是规则不断变化的游戏的无限集合。只要出现重大进展,游戏规则都要重写,所有玩家都得跟着调整,否则就会死掉。智能,就是一种会进化从而让主体解决这一问题的机制。我们可以造出机器,在规则固定的游戏中超出我们自己的能力,但这并不能告诉我们如何造出机器去玩“规则不断变化的游戏”。

5.物理现实中有某些规则是不变的——比如物理定律。人类已经把这些定律表述出来,并借此做出预测,文明因而建立。但是,这个星球上的每一种生物,为了能在地球上生存,也都以非语言的方式掌握了这些规律。小孩子不需要学习牛顿定律,就知道苹果会从树上掉下来。

6.我们的视觉数据模型其实是非常不完善的,因为它们仅仅依赖事物在时间显现中的停留,以及人类打的抽象标签。深度网络就算看了几百万张树上苹果的照片,也永远无法发现重力(以及其他许多显而易见的事情)。

7.关于常识,最大的困难在于,它对我们显而易见,但却几乎无法用语言表达,进而在数据中打上标签。对于一切“明显”事物,我们都有着巨大的盲点。因此,我们无法教会计算机常识,这不仅因为可能不切实际,而且更根本原因在于,我们恐怕都无法意识到常识是什么。只有当机器人做了某件极其愚蠢的事情之后,我们才意识到,“哦,原来机器人不理解这个⋯⋯”

8.如果我们希望解决莫拉维克悖论(在我看来,这应该成为今天任何严肃的AI努力的焦点),那么,我们怎么也得模仿一下生物体,即纯粹通过观察世界来学习,而不需要标签的辅助。一个比较有希望的想法是,开发一个对未来事件作出临时预测的系统,然后通过将其预测与实际情况进行对比来学习。无数实验表明,这的确是生物体大脑中发生的事情,而且从各种角度来说,这样做非常有意义,因为这些系统,除了其他方面之外还必须学习物理定律(所谓的朴素物理学)。预测性视觉模型,是朝着这个方向迈出的一步,但肯定不是最后一步。

9.我们特别需要在图灵的定义之外框定“智能”的质量。从非平衡态热力学,我们应该能发现一些好点子,这与预测性假设也是一致的。为什么呢?因为我们需要开发出注定无法通过图灵测试的智能代理(因为它们不会展现出语言智能),但依然需要一个衡量开发进展的框架。

10.我们今天所做的一切以及被称为AI的东西,都是能够语言化的、某种形式的自动化。在很多领域,这些能发挥作用,但是,这和用Excel代替纸张表格来帮助会计并没有太大不同。最大的问题(且一直)是自主。自主不是自动化。自主比自动化的意味多多了,如果自主意味着比人类更安全,比如自动驾驶汽车,那么自主的含义比自动化要多太多了。自主应该等同于宽泛定义的智能,因为它意味着处理意外的、未经训练的、未知的未知的能力。

在博客后的留言中,Piekniewski还提出他关于AI如何冲击就业的分析。他把这个问题分为两部分:

1)我们会继续把越来越多的任务自动化吗?很有可能。这会导致人们失业吗?大概是的。但是自从工业革命开始,我们已经解决了这个问题,每当我们消灭一些工作时,其他一些就业机会就会出现。

2)我们是否会建立一支拥有人类能力的AI奴隶队伍,由它们去完成人类目前所做的一切,而人类则去度过无尽的假期?我不认为,不会很快发生,甚至在50年内都不可能发生。

总而言之,我们目前所做的,可能会导致许多工作自动化,但令人惊讶的是,或许这些工作不是人们都在谈论的那些。比如卡车司机、出租车司机、警察、保安和任何需要处理“长尾”事件的职业,其实都是安全的。恕我直言。但是保险代理人、房地产经纪人、各种官僚人士、零售人员、图书管理员以及其他限定和定义明确的领域,每个人都可能受到威胁。 

作者不认为汽车驾驶会很快地大规模自动化。卡车司机除了驾驶卡车,还要保养卡车,比如加油、修理等等。即使驾驶可以自动化,我们仍然需要让人跟着货物,以防万一。就算是收银员,也有很多不可知情况,比如条码不可用等等。所以,他们中的一些人会失去工作但不是全部,有些人仍然需要处理那些尾部情况。而且,在一些严重的经济衰退或自然灾害的情况下,这些自动化设备也可能一下子变得毫无用处。 

而通用AI、可以为我们做任何事的智能奴隶,或者杀人的终结者物种,目前并没有出现在科技的地平线上。(编译:黄锫坚)

原文链接:https://blog.piekniewski.info/2018/06/20/rebooting-ai-postulates/

 

未经正式授权严禁转载本文,侵权必究。

评论

暂无评论哦,快来评价一下吧!

下载界面新闻

微信公众号

微博

人工智能如何跳出图灵束缚,重新启动

我们今天所做的一切以及被称为AI的东西,都是能够语言化的、某种形式的自动化。在很多领域,这些能发挥作用,但是,这和用Excel代替纸张表格来帮助会计并没有太大不同。

图片来源:视觉中国

编者按:计算机视觉与AI专家Filip Piekniewski不久前发布的博客《AI冬天快来了》在网上引发热议,许多大公司的专家也参与了辩论和讨论。该文主要对深度学习提出了批评,认为这项技术远算不上革命性,而且面临各种瓶颈。

两周前,作者把自己对AI的看法进行了归纳,认为AI被图灵定义限定在狭窄范围,我们需要如何跳出框架、面对现实,哪些问题可以修复。

以下是界面编译的他的十个观点:

1.我们掉入了图灵关于智能的定义的陷阱。在著名的图灵公式中,他把智能限定为一场对手为人类的语言游戏。这就把智能设定为(1)一个游戏的解决方案(2)将人类摆在裁判的位置上。这个定义极有欺骗性,因而不是特别适合这个领域。狗、猴子、大象甚至啮齿动物都非常智能,但却不会说话,因此在图灵测试里它们是过不了关的。

2.AI的核心问题是莫拉维克悖论(Moravec's Paradox)(注:莫拉维克说,“要让电脑如成人般地下棋是相对容易的,但是要让电脑有如一岁小孩般的感知和行动能力却是相当困难甚至是不可能的。”)。这个悖论是1988年首次阐述的,30年过去了,我们在这方面的进展如此之少,真是令人尴尬。这个悖论的主题是,最简单的现实显然要比最复杂的游戏还要复杂得多。我们痴迷于博弈(以及其他限制严格且定义明确的话语范围,如数据集)中的超人表现,以此作为智能的标志。我们完全忽视了一个事实——是现实本身,而不是人类的某个委员会,才能某个参与者的智能做出终极评判。

3.我们的模型或许有效,但其原因往往是错误的。深度学习就是一个明显的例子。表面上我们解决了对象识别,但无数研究表明,深度网络能够识别对象的原因,跟人类能发觉对象的原因有着巨大差异。有些人出于图灵测试理念只想着怎么愚弄人,对他们来说,这个问题也许并不重要。而对那些关心如何让人工代理能够处理意外(域外)现实的人来说,这个问题就至关重要了。

4.现实不是游戏。如果说两者有相似性,那就是,现实是规则不断变化的游戏的无限集合。只要出现重大进展,游戏规则都要重写,所有玩家都得跟着调整,否则就会死掉。智能,就是一种会进化从而让主体解决这一问题的机制。我们可以造出机器,在规则固定的游戏中超出我们自己的能力,但这并不能告诉我们如何造出机器去玩“规则不断变化的游戏”。

5.物理现实中有某些规则是不变的——比如物理定律。人类已经把这些定律表述出来,并借此做出预测,文明因而建立。但是,这个星球上的每一种生物,为了能在地球上生存,也都以非语言的方式掌握了这些规律。小孩子不需要学习牛顿定律,就知道苹果会从树上掉下来。

6.我们的视觉数据模型其实是非常不完善的,因为它们仅仅依赖事物在时间显现中的停留,以及人类打的抽象标签。深度网络就算看了几百万张树上苹果的照片,也永远无法发现重力(以及其他许多显而易见的事情)。

7.关于常识,最大的困难在于,它对我们显而易见,但却几乎无法用语言表达,进而在数据中打上标签。对于一切“明显”事物,我们都有着巨大的盲点。因此,我们无法教会计算机常识,这不仅因为可能不切实际,而且更根本原因在于,我们恐怕都无法意识到常识是什么。只有当机器人做了某件极其愚蠢的事情之后,我们才意识到,“哦,原来机器人不理解这个⋯⋯”

8.如果我们希望解决莫拉维克悖论(在我看来,这应该成为今天任何严肃的AI努力的焦点),那么,我们怎么也得模仿一下生物体,即纯粹通过观察世界来学习,而不需要标签的辅助。一个比较有希望的想法是,开发一个对未来事件作出临时预测的系统,然后通过将其预测与实际情况进行对比来学习。无数实验表明,这的确是生物体大脑中发生的事情,而且从各种角度来说,这样做非常有意义,因为这些系统,除了其他方面之外还必须学习物理定律(所谓的朴素物理学)。预测性视觉模型,是朝着这个方向迈出的一步,但肯定不是最后一步。

9.我们特别需要在图灵的定义之外框定“智能”的质量。从非平衡态热力学,我们应该能发现一些好点子,这与预测性假设也是一致的。为什么呢?因为我们需要开发出注定无法通过图灵测试的智能代理(因为它们不会展现出语言智能),但依然需要一个衡量开发进展的框架。

10.我们今天所做的一切以及被称为AI的东西,都是能够语言化的、某种形式的自动化。在很多领域,这些能发挥作用,但是,这和用Excel代替纸张表格来帮助会计并没有太大不同。最大的问题(且一直)是自主。自主不是自动化。自主比自动化的意味多多了,如果自主意味着比人类更安全,比如自动驾驶汽车,那么自主的含义比自动化要多太多了。自主应该等同于宽泛定义的智能,因为它意味着处理意外的、未经训练的、未知的未知的能力。

在博客后的留言中,Piekniewski还提出他关于AI如何冲击就业的分析。他把这个问题分为两部分:

1)我们会继续把越来越多的任务自动化吗?很有可能。这会导致人们失业吗?大概是的。但是自从工业革命开始,我们已经解决了这个问题,每当我们消灭一些工作时,其他一些就业机会就会出现。

2)我们是否会建立一支拥有人类能力的AI奴隶队伍,由它们去完成人类目前所做的一切,而人类则去度过无尽的假期?我不认为,不会很快发生,甚至在50年内都不可能发生。

总而言之,我们目前所做的,可能会导致许多工作自动化,但令人惊讶的是,或许这些工作不是人们都在谈论的那些。比如卡车司机、出租车司机、警察、保安和任何需要处理“长尾”事件的职业,其实都是安全的。恕我直言。但是保险代理人、房地产经纪人、各种官僚人士、零售人员、图书管理员以及其他限定和定义明确的领域,每个人都可能受到威胁。 

作者不认为汽车驾驶会很快地大规模自动化。卡车司机除了驾驶卡车,还要保养卡车,比如加油、修理等等。即使驾驶可以自动化,我们仍然需要让人跟着货物,以防万一。就算是收银员,也有很多不可知情况,比如条码不可用等等。所以,他们中的一些人会失去工作但不是全部,有些人仍然需要处理那些尾部情况。而且,在一些严重的经济衰退或自然灾害的情况下,这些自动化设备也可能一下子变得毫无用处。 

而通用AI、可以为我们做任何事的智能奴隶,或者杀人的终结者物种,目前并没有出现在科技的地平线上。(编译:黄锫坚)

原文链接:https://blog.piekniewski.info/2018/06/20/rebooting-ai-postulates/

 

未经正式授权严禁转载本文,侵权必究。