正在阅读:

汽车人工智能与七个月的孩子谁更聪明?

扫一扫下载界面新闻APP

汽车人工智能与七个月的孩子谁更聪明?

如何改进自动驾驶汽车的智能性。

文|来咖智库

7个月大以后,多数孩子都已经学会了移出视线的物体仍然存在。把玩具放在毯子下面,孩子会知道玩具还在那里,并且可以伸手把它从毯子下面取回来。这种对于“物体永久性”的理解是常见的发展里程碑,也是基本的现实原则。

但这也是自动驾驶汽车所不具备的,这会是一个问题。自动汽车越来越好,但它们理解世界的方式仍然与人类不同。在自动驾驶汽车看来,被经过的货车暂时挡住的自行车已不再存在。

对于现在广泛存在的僭取了稍有误导性的人工智能称号的计算原则来讲,这种失败是基础性的。目前人工智能通过建造世界的复杂统计模型来工作,但是其缺乏对于现实的更深层理解。对于如何能够给人工智能赋予一定程度的理解能力(也许是与7个月大孩子一样的推理能力),人们正在积极开展研究。

现代人工智能基于机器学习的理念。如果工程师想要计算机认识停车标识,他不需要费力写出上千行代码,以表述有可能指示该标识的每种像素模式。他会写一个能够自己学习的程序,然后给它看成千上万张停车标识的图片。重复多次以后,该程序会逐渐了解这些图片的共同特点是什么。

人们也在使用类似的技巧来训练自动驾驶汽车在交通中的操作。这样,汽车就能够学习如何按交通标线行驶,躲避其他汽车,遇到红灯踩刹车,等等。但对于人类司机认为理所当的很多事情,它们并不理解。例如,不理解其他上路的汽车有发动机和四个轮子,不理解它们(通常)会遵守交通规则、(永远)会遵守物理定律,也不理解物体永久性。

瑞典Orebro大学的Melhul Bhatt是CoDesign Lab公司的创始人,他通过该公司按照自己的想法进行商业开发。他最近在“人工智能”杂志发表了一篇文章,描述了另外一种方法。他和同事们获取了一些在自动驾驶汽车中使用的已有人工智能程序,在上面注入了名叫符号推理引擎的软件。

心有其理

与机器学习那样通过概率来接触世界不同,该软件将基础物理概念应用在自动驾驶汽车传感器信号处置程序的输出结果中。这种修正后的结果将被输入驾驶汽车的软件中。相关概念涉及的相关理念包括:分离的物体持续存在;它们彼此间有“在前面”和“在后面”这样的空间关系;它们可能完全可见、部分可见或彻底被另一物体遮挡。

这种方法很管用。在测试中,如果一辆车暂时地被另一辆车挡住,该推理强化软件将跟踪这辆被挡住的车,预测它将于何处、何时再次出现,有必要的话会想办法躲避。这种改进并不算大。在一般测试中,Bhatt博士的系统已有软件的得分高约5%。但这证明该原则成立。此外还有其他收获。例如,与机器学习算法不同,推理引擎能够告诉你它做事情的原因。

例如,你可以问一辆装有推理引擎的车为什么踩刹车,它将能够告诉你,它认为一辆被货车挡住的自行车将进入前方路口。机器学习程序做不到这一点。除了能够帮助改进程序设计,Bhatt博士认为这样的信息将对监管者和保险公司有帮助。这也将能够加快公众对与自动驾驶汽车的接受速度。

Bhatt博士的工作处于人工智能领域长期存在的争论之中。1950年代,早期人工智能研究者曾利用这种前期植入的推理程序取得一定成功。但从1990年代起,随着编程技术的增强,更强大计算机及更多可用数据的涌现,机器学习发生了显著改进。今天,几乎所有的人工智能都是基于机器学习。

并非只有Bhatt博士对此产生疑问。纽约大学研究心理学和神经学的Gary Marcus也有同感,他也是一家名叫Robust.AI的人工智能和机器人公司的老板。为了支持自己的观点,Marcus博士引用了8年前的一个广受关注的报告。那时DeepMind公司(当时是独立公司,现在已被收入Google旗下)的工程师编写了一个程序,能够在不了解任何规则的前提下学会玩Breakout视频游戏,即用虚拟球拍击打移动的虚拟球。

DeepMind成为了一个很棒的玩家。但当另一组研究者改动Breakout游戏的代码时,即便是只把球拍的位置移动几个像素,DeepMind的能力都会大幅下降。即便是在稍有不同的情境下,它都无法将特定情境下学到的东西进行广泛应用。

回到未来

对于Marcus博士,这个例子突出了机器学习的脆弱性。但也有人认为,符号推理才是脆弱的那个,机器学习的前景还很大。自动驾驶汽车公司Wayve的科技副总裁Jeff Hawke就是持这种观念的人之一。Wayve采取的方法是通过同时驱动汽车不同部件来训练软件,而不是分开来做。在演示中,Wayve的汽车在狭窄、拥堵的伦敦街头行驶时判断准确,这即使是对于很多人来说都很挑战。

Hawke博士指出:“众所周知,无论设想的正式逻辑有多周到、结构有多合理,专家通过规则建造的系统的复杂性一般都不够。多数真实世界任务的复杂性都比使用编制规则所能解决的要大。”例如,这样的系统可能会制定汽车遇红灯应该停的规则。但不同国家信号灯的设计不同,有些灯是给行人而不是车辆的。还有时候,你可能需要闯红灯来给救火车让道。“机器学习的美妙之处”,Hawke博士说,“就是所有这些因素和概念,都能够通过数据自动发现和学习。数据越多,它通过学习就能够变得越智能。”

加州大学伯克利分校的机器人和人工智能研究者Nicholas Rhinehart也支持机器学习。他指出,Bhatt博士的方式实际上显示可以将两种方法结合起来。但他对于其必要性并不确定。在他和其他一些人的研究中,机器学习系统本身就已经能够预测未来几秒钟的可能性(例如另一辆车是否会避让),并按照这些预测来制定应急计划。

Bhatt博士则回应,你可能用数百万公里驾驶积累的数据训练汽车后,仍无法确认已经把所有可能情境都覆盖了。在很多情况下,从一开始就把一些规则编入程序中可能更简单,更有效。

对于这两种策略的拥护者,这个问题不仅局限于自动驾驶汽车,而是涉及人工智能本身的未来。“我认为我们目前采取的方式不对”,Marcus博士说,“机器学习对于语音识别等已经被证实有效,但其实际上并不是人工智能的答案。我们仍然没有真正破解智能问题。”无论如何,看来7个月大的孩子仍然有很多东西可以教给机器。

本文为转载内容,授权事宜请联系原著作权人。

评论

暂无评论哦,快来评价一下吧!

下载界面新闻

微信公众号

微博

汽车人工智能与七个月的孩子谁更聪明?

如何改进自动驾驶汽车的智能性。

文|来咖智库

7个月大以后,多数孩子都已经学会了移出视线的物体仍然存在。把玩具放在毯子下面,孩子会知道玩具还在那里,并且可以伸手把它从毯子下面取回来。这种对于“物体永久性”的理解是常见的发展里程碑,也是基本的现实原则。

但这也是自动驾驶汽车所不具备的,这会是一个问题。自动汽车越来越好,但它们理解世界的方式仍然与人类不同。在自动驾驶汽车看来,被经过的货车暂时挡住的自行车已不再存在。

对于现在广泛存在的僭取了稍有误导性的人工智能称号的计算原则来讲,这种失败是基础性的。目前人工智能通过建造世界的复杂统计模型来工作,但是其缺乏对于现实的更深层理解。对于如何能够给人工智能赋予一定程度的理解能力(也许是与7个月大孩子一样的推理能力),人们正在积极开展研究。

现代人工智能基于机器学习的理念。如果工程师想要计算机认识停车标识,他不需要费力写出上千行代码,以表述有可能指示该标识的每种像素模式。他会写一个能够自己学习的程序,然后给它看成千上万张停车标识的图片。重复多次以后,该程序会逐渐了解这些图片的共同特点是什么。

人们也在使用类似的技巧来训练自动驾驶汽车在交通中的操作。这样,汽车就能够学习如何按交通标线行驶,躲避其他汽车,遇到红灯踩刹车,等等。但对于人类司机认为理所当的很多事情,它们并不理解。例如,不理解其他上路的汽车有发动机和四个轮子,不理解它们(通常)会遵守交通规则、(永远)会遵守物理定律,也不理解物体永久性。

瑞典Orebro大学的Melhul Bhatt是CoDesign Lab公司的创始人,他通过该公司按照自己的想法进行商业开发。他最近在“人工智能”杂志发表了一篇文章,描述了另外一种方法。他和同事们获取了一些在自动驾驶汽车中使用的已有人工智能程序,在上面注入了名叫符号推理引擎的软件。

心有其理

与机器学习那样通过概率来接触世界不同,该软件将基础物理概念应用在自动驾驶汽车传感器信号处置程序的输出结果中。这种修正后的结果将被输入驾驶汽车的软件中。相关概念涉及的相关理念包括:分离的物体持续存在;它们彼此间有“在前面”和“在后面”这样的空间关系;它们可能完全可见、部分可见或彻底被另一物体遮挡。

这种方法很管用。在测试中,如果一辆车暂时地被另一辆车挡住,该推理强化软件将跟踪这辆被挡住的车,预测它将于何处、何时再次出现,有必要的话会想办法躲避。这种改进并不算大。在一般测试中,Bhatt博士的系统已有软件的得分高约5%。但这证明该原则成立。此外还有其他收获。例如,与机器学习算法不同,推理引擎能够告诉你它做事情的原因。

例如,你可以问一辆装有推理引擎的车为什么踩刹车,它将能够告诉你,它认为一辆被货车挡住的自行车将进入前方路口。机器学习程序做不到这一点。除了能够帮助改进程序设计,Bhatt博士认为这样的信息将对监管者和保险公司有帮助。这也将能够加快公众对与自动驾驶汽车的接受速度。

Bhatt博士的工作处于人工智能领域长期存在的争论之中。1950年代,早期人工智能研究者曾利用这种前期植入的推理程序取得一定成功。但从1990年代起,随着编程技术的增强,更强大计算机及更多可用数据的涌现,机器学习发生了显著改进。今天,几乎所有的人工智能都是基于机器学习。

并非只有Bhatt博士对此产生疑问。纽约大学研究心理学和神经学的Gary Marcus也有同感,他也是一家名叫Robust.AI的人工智能和机器人公司的老板。为了支持自己的观点,Marcus博士引用了8年前的一个广受关注的报告。那时DeepMind公司(当时是独立公司,现在已被收入Google旗下)的工程师编写了一个程序,能够在不了解任何规则的前提下学会玩Breakout视频游戏,即用虚拟球拍击打移动的虚拟球。

DeepMind成为了一个很棒的玩家。但当另一组研究者改动Breakout游戏的代码时,即便是只把球拍的位置移动几个像素,DeepMind的能力都会大幅下降。即便是在稍有不同的情境下,它都无法将特定情境下学到的东西进行广泛应用。

回到未来

对于Marcus博士,这个例子突出了机器学习的脆弱性。但也有人认为,符号推理才是脆弱的那个,机器学习的前景还很大。自动驾驶汽车公司Wayve的科技副总裁Jeff Hawke就是持这种观念的人之一。Wayve采取的方法是通过同时驱动汽车不同部件来训练软件,而不是分开来做。在演示中,Wayve的汽车在狭窄、拥堵的伦敦街头行驶时判断准确,这即使是对于很多人来说都很挑战。

Hawke博士指出:“众所周知,无论设想的正式逻辑有多周到、结构有多合理,专家通过规则建造的系统的复杂性一般都不够。多数真实世界任务的复杂性都比使用编制规则所能解决的要大。”例如,这样的系统可能会制定汽车遇红灯应该停的规则。但不同国家信号灯的设计不同,有些灯是给行人而不是车辆的。还有时候,你可能需要闯红灯来给救火车让道。“机器学习的美妙之处”,Hawke博士说,“就是所有这些因素和概念,都能够通过数据自动发现和学习。数据越多,它通过学习就能够变得越智能。”

加州大学伯克利分校的机器人和人工智能研究者Nicholas Rhinehart也支持机器学习。他指出,Bhatt博士的方式实际上显示可以将两种方法结合起来。但他对于其必要性并不确定。在他和其他一些人的研究中,机器学习系统本身就已经能够预测未来几秒钟的可能性(例如另一辆车是否会避让),并按照这些预测来制定应急计划。

Bhatt博士则回应,你可能用数百万公里驾驶积累的数据训练汽车后,仍无法确认已经把所有可能情境都覆盖了。在很多情况下,从一开始就把一些规则编入程序中可能更简单,更有效。

对于这两种策略的拥护者,这个问题不仅局限于自动驾驶汽车,而是涉及人工智能本身的未来。“我认为我们目前采取的方式不对”,Marcus博士说,“机器学习对于语音识别等已经被证实有效,但其实际上并不是人工智能的答案。我们仍然没有真正破解智能问题。”无论如何,看来7个月大的孩子仍然有很多东西可以教给机器。

本文为转载内容,授权事宜请联系原著作权人。