正在阅读:

专家呼吁联合国应禁止各国将AI用于武器研发

扫一扫下载界面新闻APP

专家呼吁联合国应禁止各国将AI用于武器研发

科幻电影恐怖情节可能成真?AI专家呼吁联合国应禁止各国将AI用于武器研发。

美国电动车大厂Tesla、Google旗下的DeepMind、丹麦的Universal Robotics,以及加拿大Element AI和法国Aldebaran Robotics等26国AI及机器人企业的专家和领袖,于2017年8月21日共同发表一封连署公开信,警告「杀手机器人(Killer Robot)」等AI自主性武器将带来「第三波战争革命」,要求联合国应全面禁止各国发展AI武器,以避免未来可能造成的巨大威胁。

拓墣观点

1. 现在的AI会像电影中那样自主性决定毁灭人类?

在2017年8月21日参与这次联署公开信的AI专家或企业创办人,包含Tesla创办人Elon Musk、DeepMind共同创办人Mustafa Suleyman、Universal Robotics创办人Esben Østergaard、打造Pepper机器人的Aldebaran Robotics创办人Jerome Monceaux等具代表性人物。

其中在公开信中提及的「自主性(Autonomous)毁灭武器」,让大家无不想到诸多AI选择毁灭人类的科幻电影情节,例如因为赋予AI任务是要建构一个「完美」的世界,但未料到AI后来发觉人类本身就不完美,因此决定要毁灭人类以建构「完美」世界等剧情发展。

现在的AI真会像电影中那样恐怖、令人畏惧吗?其实就现在AI的技术能力而言,我们距离做出像电影中会自我思考、具有自我意识的AI系统还非常遥远,仅能就单一目标进行训练,因此到目前为止,都还不可能发生「AI发觉人类不完美」或是「AI自己对『完美』产生特殊认知」的情况。

2. AI真的可能带来「第三波战争革命」吗?

既然现代的AI技术不可能让AI达到具有意识或自我思考能力,那么这些AI专家诉求是否过于杞人忧天?很不幸地,这个答案是否定的。

即使现在的AI技术还远远无法达到科幻电影中的超高境界,但确实已经足以对这个世界产生威胁,像是UC Berkeley人工智慧实验室的主管Stuart Russell就曾说,故意滥用AI可能是比使用恶意软体还要更糟糕的问题,因为这些AI系统已经可以在没有人类干预下选择攻击目标,包含可在城市中搜寻并消灭敌方军用直升机等。只是现代AI被运用于武器研发的威胁,其实不是来自于AI本身的想法,而是来自于人类训练AI背后的不良意图。

就是因为现在的AI系统无法具备思考能力,根本不可能有能力分辨世间的是非善恶,所以AI是否具有威胁性,全凭人类想要训练AI系统完成什么样的目标而决定。若人类蒐集大量武器与战争相关的数据,输入AI系统进行训练,确实可制造出能自动识别敌军并加以攻击的自主性军事武器。况且将AI应用于军事用途本来就充满巨大商机,若再没有任何法规限制其发展,将可能完全无法阻止各国运用AI发展具毁灭性的军事武器。

然而,就在这些AI专家跳出来呼吁联合国应禁止各国以AI发展军事武器的同时,若不受这些法规规范的恐怖份子认真投入相关研发,是否也代表一般守法的国家将因此面临高度的恐怖威胁?到底该怎么做才能够解除各种潜在危机?这部份还有赖各国政府、AI研发人员与各界专家共同讨论。

(文/ 拓墣产业研究院 林贞舒)

此文为拓墣产业研究院原创内容,如需转载请注明出处。

拓墣产业研究院公众号:TRI-topology 

本文为转载内容,授权事宜请联系原著作权人。

评论

暂无评论哦,快来评价一下吧!

下载界面新闻

微信公众号

微博

专家呼吁联合国应禁止各国将AI用于武器研发

科幻电影恐怖情节可能成真?AI专家呼吁联合国应禁止各国将AI用于武器研发。

美国电动车大厂Tesla、Google旗下的DeepMind、丹麦的Universal Robotics,以及加拿大Element AI和法国Aldebaran Robotics等26国AI及机器人企业的专家和领袖,于2017年8月21日共同发表一封连署公开信,警告「杀手机器人(Killer Robot)」等AI自主性武器将带来「第三波战争革命」,要求联合国应全面禁止各国发展AI武器,以避免未来可能造成的巨大威胁。

拓墣观点

1. 现在的AI会像电影中那样自主性决定毁灭人类?

在2017年8月21日参与这次联署公开信的AI专家或企业创办人,包含Tesla创办人Elon Musk、DeepMind共同创办人Mustafa Suleyman、Universal Robotics创办人Esben Østergaard、打造Pepper机器人的Aldebaran Robotics创办人Jerome Monceaux等具代表性人物。

其中在公开信中提及的「自主性(Autonomous)毁灭武器」,让大家无不想到诸多AI选择毁灭人类的科幻电影情节,例如因为赋予AI任务是要建构一个「完美」的世界,但未料到AI后来发觉人类本身就不完美,因此决定要毁灭人类以建构「完美」世界等剧情发展。

现在的AI真会像电影中那样恐怖、令人畏惧吗?其实就现在AI的技术能力而言,我们距离做出像电影中会自我思考、具有自我意识的AI系统还非常遥远,仅能就单一目标进行训练,因此到目前为止,都还不可能发生「AI发觉人类不完美」或是「AI自己对『完美』产生特殊认知」的情况。

2. AI真的可能带来「第三波战争革命」吗?

既然现代的AI技术不可能让AI达到具有意识或自我思考能力,那么这些AI专家诉求是否过于杞人忧天?很不幸地,这个答案是否定的。

即使现在的AI技术还远远无法达到科幻电影中的超高境界,但确实已经足以对这个世界产生威胁,像是UC Berkeley人工智慧实验室的主管Stuart Russell就曾说,故意滥用AI可能是比使用恶意软体还要更糟糕的问题,因为这些AI系统已经可以在没有人类干预下选择攻击目标,包含可在城市中搜寻并消灭敌方军用直升机等。只是现代AI被运用于武器研发的威胁,其实不是来自于AI本身的想法,而是来自于人类训练AI背后的不良意图。

就是因为现在的AI系统无法具备思考能力,根本不可能有能力分辨世间的是非善恶,所以AI是否具有威胁性,全凭人类想要训练AI系统完成什么样的目标而决定。若人类蒐集大量武器与战争相关的数据,输入AI系统进行训练,确实可制造出能自动识别敌军并加以攻击的自主性军事武器。况且将AI应用于军事用途本来就充满巨大商机,若再没有任何法规限制其发展,将可能完全无法阻止各国运用AI发展具毁灭性的军事武器。

然而,就在这些AI专家跳出来呼吁联合国应禁止各国以AI发展军事武器的同时,若不受这些法规规范的恐怖份子认真投入相关研发,是否也代表一般守法的国家将因此面临高度的恐怖威胁?到底该怎么做才能够解除各种潜在危机?这部份还有赖各国政府、AI研发人员与各界专家共同讨论。

(文/ 拓墣产业研究院 林贞舒)

此文为拓墣产业研究院原创内容,如需转载请注明出处。

拓墣产业研究院公众号:TRI-topology 

本文为转载内容,授权事宜请联系原著作权人。