正在阅读:

知道逃跑的机器人会进化成“杀人机器人”吗?

扫一扫下载界面新闻APP

知道逃跑的机器人会进化成“杀人机器人”吗?

人工智能技术就是一把双刃剑,它可以造福人类,也可能成为人类历史上的一次重大事故。

近年里,人工智能(AI)受到科学家和资本家的追捧。但同时还有另一个声音发出——“人工智能将毁灭人类”。正如好莱坞大片中彰显的那样,人类未来会被更智能的机器人所统治,甚或消灭。

在享受人工智能带来便利的同时,人类开始担忧了。那么为什么AI会毁灭人类呢?

据说,有很大一部分原因是被人工智能的聪明劲儿吓到了,就比方说,大败人类第一旗手李世石的阿法狗,学习人类并获得优于人类的超强计算能力,还深谙深度学习和强化学习技术。就这样,人工智能越来越聪明了,发明人工智能的人类就感到地位受到了威胁,古代的“功高震主”是不是这个理儿?

学习是人类具有的一种重要智能行为,人工智能有了这种能力和行为,就叫做机器学习。那么,它们是怎样变聪明的呢?机器学习又是怎么一回事呢?

带着疑问,小站君特地找几位AI大能帮大家答疑解惑:

当前,工智能目前已经应用到搜索、语音识别、图像识别等机器学习领域。但机器学习正处在不断往前发展的过程中,人工智能使得机器学习变得越来越准确,在每个领域都会使用。—— 百度总裁张亚勤于2016达沃斯论坛

目前的人工智能主要有两种算法:监督学习以及无监督学习。我们常见的大部分AI都是运用监督式学习算法,这种监督基本上在人类的掌控之中。让人工智能自主学习的,属于非监督式学习算法。这种非监督式虽说目前朝着良性的趋势发展,但还未达到我们希望的阶段。—— 微软亚洲研究院院长芮勇在全球人工智能与机器人峰会上

人工智能之所以“聪明”,并不是因为程序猿开发了多厉害的机器人程序,而是为其开发了超强的学习能力,这种学习能力就是微软亚洲研究院院长芮勇所言的机器无监督式学习算法。像生物系统一样进行学习,AI通过阅读、训练获取各项能力,从而适应周边的环境。

它的后天学习能力绝对超越现在的人类,也的确让人工智能离人类智能更近一步,但同时问题也来了:一旦机器人产生自主学习意识但却不能像人类一样分辨信息好坏,这样的感觉真是糟透了。

大家是否还记得,就在今年3月,微软在Twitter上线人工智能机器人TayTweet

s,上线还不到24小时,Tay受到攻击,不但频频发出带有色情挑逗的话语,并且成为了纳粹拥护者。结果呢,微软不得不关停Tay并声称还需对其进行改进。

微软TayTweets推特页面

其实,微软本意是想通过更多网友与Tay的交谈,来训练Tay,训练的过程就是机器人自主学习的过程,然后“现学现卖”,以与网友的交谈模式实现机器人与人对话交流。只是,有一部分不想给它这个机会。

目前的人工智能依然存有漏洞。据说,现在的Tay已经被“保护”起来,只能通过其后台验证成为粉丝,才能看它的推文并同它交流。说到底,它还是个没长大的孩子。

上周末有消息传出,世界5大科技公司包括谷歌母公司Alphabet、亚马逊、Facebook、IBM和微软的研究人员集中开会,试图制定围绕人工智能开发的伦理道德标准。他们关注AI对人类的威胁,谈论AI对工作、交通甚至战争的影响。

会议现场

由科技巨头牵头的AI行业讨论,总是会受到大众及媒体的广泛光柱。微软研究人员埃里克·霍维茨创办的一个团体,也曾在周四发表报告强调行业联合行动的重要性。

自主学习,就是让机器人逐渐拥有自己的意识,但这样做是有风险的。国外有这么一个自主学习机器人,它的名字叫Promobot IR77,一周时间内两次试图从实验室逃脱,这可称得上是“机械智能史上第一位追求自由和自主的机械先驱者”了。

实验室工程师两次尝试为它重新编程,它仍然想着“出逃”。国内网友也坐不住了:

虽然机器人“落跑”可以当做一个笑话听,但我们还是不禁要去思考:自主学习,是否意味着自主控制,脱离原有人类为其设定好的程序,脱离人类的掌控?是非不分,善恶难辨,这也许让自主学习的机器人成为令人类恐惧的“杀手机器人”。但,是非曲折、忠奸善恶这类原本人类专属的词汇是横加在人工智能身上,还是用以针对人工智能的创造者?

牛津大学人类未来研究院院长尼克-博斯特罗姆教授在其新书《超级智能》中援引了人工智能领域一些专家的最新调查成果:1、有50%的可能计算机将在2050年具备相当人类水平的智能;2、有90%的可能在2075年机器人将具备与人类对等的智能。他对未来人工智能继续发展所带来的潜在风险表示担忧,并对此发出了警告。

因为,谁也无法预料未来的科技进步节奏是怎样的,谁也无法保证全球每一个角落的每一位科学家都能持同样负责谨慎的态度,谁也无法保证犯罪分子里就没有类似这样的一群“伟大”科学家。

总体而言,人工智能技术就是一把双刃剑,它可以造福人类,也可能成为人类历史上的一次重大事故。

图片来源:互联网

本文为转载内容,授权事宜请联系原著作权人。

评论

暂无评论哦,快来评价一下吧!

下载界面新闻

微信公众号

微博

知道逃跑的机器人会进化成“杀人机器人”吗?

人工智能技术就是一把双刃剑,它可以造福人类,也可能成为人类历史上的一次重大事故。

近年里,人工智能(AI)受到科学家和资本家的追捧。但同时还有另一个声音发出——“人工智能将毁灭人类”。正如好莱坞大片中彰显的那样,人类未来会被更智能的机器人所统治,甚或消灭。

在享受人工智能带来便利的同时,人类开始担忧了。那么为什么AI会毁灭人类呢?

据说,有很大一部分原因是被人工智能的聪明劲儿吓到了,就比方说,大败人类第一旗手李世石的阿法狗,学习人类并获得优于人类的超强计算能力,还深谙深度学习和强化学习技术。就这样,人工智能越来越聪明了,发明人工智能的人类就感到地位受到了威胁,古代的“功高震主”是不是这个理儿?

学习是人类具有的一种重要智能行为,人工智能有了这种能力和行为,就叫做机器学习。那么,它们是怎样变聪明的呢?机器学习又是怎么一回事呢?

带着疑问,小站君特地找几位AI大能帮大家答疑解惑:

当前,工智能目前已经应用到搜索、语音识别、图像识别等机器学习领域。但机器学习正处在不断往前发展的过程中,人工智能使得机器学习变得越来越准确,在每个领域都会使用。—— 百度总裁张亚勤于2016达沃斯论坛

目前的人工智能主要有两种算法:监督学习以及无监督学习。我们常见的大部分AI都是运用监督式学习算法,这种监督基本上在人类的掌控之中。让人工智能自主学习的,属于非监督式学习算法。这种非监督式虽说目前朝着良性的趋势发展,但还未达到我们希望的阶段。—— 微软亚洲研究院院长芮勇在全球人工智能与机器人峰会上

人工智能之所以“聪明”,并不是因为程序猿开发了多厉害的机器人程序,而是为其开发了超强的学习能力,这种学习能力就是微软亚洲研究院院长芮勇所言的机器无监督式学习算法。像生物系统一样进行学习,AI通过阅读、训练获取各项能力,从而适应周边的环境。

它的后天学习能力绝对超越现在的人类,也的确让人工智能离人类智能更近一步,但同时问题也来了:一旦机器人产生自主学习意识但却不能像人类一样分辨信息好坏,这样的感觉真是糟透了。

大家是否还记得,就在今年3月,微软在Twitter上线人工智能机器人TayTweet

s,上线还不到24小时,Tay受到攻击,不但频频发出带有色情挑逗的话语,并且成为了纳粹拥护者。结果呢,微软不得不关停Tay并声称还需对其进行改进。

微软TayTweets推特页面

其实,微软本意是想通过更多网友与Tay的交谈,来训练Tay,训练的过程就是机器人自主学习的过程,然后“现学现卖”,以与网友的交谈模式实现机器人与人对话交流。只是,有一部分不想给它这个机会。

目前的人工智能依然存有漏洞。据说,现在的Tay已经被“保护”起来,只能通过其后台验证成为粉丝,才能看它的推文并同它交流。说到底,它还是个没长大的孩子。

上周末有消息传出,世界5大科技公司包括谷歌母公司Alphabet、亚马逊、Facebook、IBM和微软的研究人员集中开会,试图制定围绕人工智能开发的伦理道德标准。他们关注AI对人类的威胁,谈论AI对工作、交通甚至战争的影响。

会议现场

由科技巨头牵头的AI行业讨论,总是会受到大众及媒体的广泛光柱。微软研究人员埃里克·霍维茨创办的一个团体,也曾在周四发表报告强调行业联合行动的重要性。

自主学习,就是让机器人逐渐拥有自己的意识,但这样做是有风险的。国外有这么一个自主学习机器人,它的名字叫Promobot IR77,一周时间内两次试图从实验室逃脱,这可称得上是“机械智能史上第一位追求自由和自主的机械先驱者”了。

实验室工程师两次尝试为它重新编程,它仍然想着“出逃”。国内网友也坐不住了:

虽然机器人“落跑”可以当做一个笑话听,但我们还是不禁要去思考:自主学习,是否意味着自主控制,脱离原有人类为其设定好的程序,脱离人类的掌控?是非不分,善恶难辨,这也许让自主学习的机器人成为令人类恐惧的“杀手机器人”。但,是非曲折、忠奸善恶这类原本人类专属的词汇是横加在人工智能身上,还是用以针对人工智能的创造者?

牛津大学人类未来研究院院长尼克-博斯特罗姆教授在其新书《超级智能》中援引了人工智能领域一些专家的最新调查成果:1、有50%的可能计算机将在2050年具备相当人类水平的智能;2、有90%的可能在2075年机器人将具备与人类对等的智能。他对未来人工智能继续发展所带来的潜在风险表示担忧,并对此发出了警告。

因为,谁也无法预料未来的科技进步节奏是怎样的,谁也无法保证全球每一个角落的每一位科学家都能持同样负责谨慎的态度,谁也无法保证犯罪分子里就没有类似这样的一群“伟大”科学家。

总体而言,人工智能技术就是一把双刃剑,它可以造福人类,也可能成为人类历史上的一次重大事故。

图片来源:互联网

本文为转载内容,授权事宜请联系原著作权人。