正在阅读:

对“终结者”说不!各国AI专家联合抵制韩智能武器研发

扫一扫下载界面新闻APP

对“终结者”说不!各国AI专家联合抵制韩智能武器研发

它们很有可能成为恐怖武器。专制统治者和恐怖分子可以利用它们伤害无辜平民。这个“潘多拉的盒子”一旦被打开将很难关闭。

来源:视觉中国

据英国《卫报》报道,日前来自20多个国家的50多位顶尖AI(人工智能)学者对韩国科学技术院(KAIST)和军火公司韩华系统(Hanwha Systems)合作建立的“国防和人工智能技术融合研究中心”发出联名公开信,要求其停止研发自主武器(“机器人杀手”)项目,并将抵制一切与韩国科学技术院的合作和交流。

该公开信组织者、澳大利亚新南威尔士大学计算机科学教授沃尔什(Toby Walsh)在接受采访时说:“利用AI技术可以从事很多拯救生命之类伟大的事业,甚至包括在军事领域内。但该机构公然宣称其目标是为了研发自主武器,和这样的(军火)公司合作引起了我们的极大担忧。韩国科学技术院是一个受尊敬的大学,但在这个合作项目中它的合作伙伴的伦理标准备受质疑,经常违反国际规范。”

下周,联合国将在日内瓦举行关于自主武器的会议,20多个国家已经呼吁全面禁止“机器人杀手”。部分地区军队对AI技术的使用,引起了人们对类似科幻电影《终结者》描述情形的恐惧。人们对这种武器的准确性以及它们区分朋友和敌人的能力提出质疑。

韩华是韩国最大的武器制造商之一, 制造由120个国家签署国际公约并禁止的集束弹药。韩国、美国、俄罗斯和中国都不是这项国际公约的签署国。韩国科学技术院与该财团合作,于今年2月开设“国防和人工智能技术融合研究中心”。据该研究中心此前公开的文件,其致力于研发“以AI技术为基础的命令和决策系统、巨型无人驾驶海底机器的导航算法、基于AI技术的智能目标跟踪技术和识别技术”。目前这些文件已被删除。

韩国科技技术院的负责人Sung-Chul Shin表示对抵制表示遗憾。他在一份声明中说:“我需要重申KAIST没有任何意图参与致命性自主武器系统(“机器人杀手”)的研发。作为一个学术机构,我们高度重视人权和伦理标准。我重申KAIST没有进行任何有违人类尊严的研究,包括缺少有效人类控制的自主武器。”

至于其他国家自主武器的进展,沃尔什告诉记者,类似英国BAE系统开发的Taranis军事无人机在技术上已经可以完全自主的完成任务。他认为“机器人杀手”会使所有人更不安全,尤其是在本来就很危险的地区。

可以说,自主武器或“机器人杀手”的研发问题是全球AI研究者和从业人员最关心的问题之一。在2015年的全球人工智能组织国际大会(International Joint Conferences on Artificial Intelligence Organization)上,来自全球的3462名AI或机器人研究人员曾联名发表公开信,表达了对世界范围内研发自主武器的关切。

在2017年8月,以马斯克为代表的来自全球的100名AI从业者表示,各国政府需要“通力合作,避免在自主武器领域开始军备竞赛,保护平民不受到伤害,避免这些科技带来的毁灭性的后果。”在同一年,世界最大的专业技术组织---电气电子工程师学会(IEEE)在其发表的关于自主与智能系统的伦理准则全球倡议书(The IEEE Global Initiative on Ethics of Autonomous and Intelligent Systems )中提道:“虽然在联合国层面已经有多年关于自动化武器的讨论,但(我们认为)人工智能和自动化行业有关智能系统的专业伦理准则应该高于这些标准,并且需要考虑社会更广泛的关切。总的来说,我们希望科技组织承认对武器系统进行有效的人类控制对社会是有好处的。创造这些科技的(企业或组织)需要认识它们工作的重大后果,专业伦理标准需要解决这些意在造成伤害的科技的问题。”

以下为此次全球AI专家对韩国科学技术院(KAIST)联名发表的公开信全文

作为人工智能和机器人技术的研究人员和工程师, 我们对韩国科学技术院(Korea Advanced Institute of Science and Technology)与韩国军火公司韩华系统(Hanwha Systems)合作建立的“国防与人工智能融合研究中心”(Research Center for the Convergence of National Defense and Artificial Intelligence)表示极大的担忧。据报道, 该中心的目标是“开发可用于军事武器的人工智能技术, 加入全球研发自主武器(autonomous weapon)的军备竞赛”。

在联合国正在讨论如何遏制自主武器对国际安全构成的威胁时, 我们非常遗憾的看到, 像韩国科学技术院这样的著名机构似乎在加速军备竞赛, 以发展这种武器。因此, 我们在这里公开宣布, 我们将抵制与韩国科学技术院相关的所有合作, 直到韩国科学技术院负责人向我们保证该中心将不发展完全自主不需要有效人类控制的“机器人杀手”。例如, 我们将不再访问韩国科学技术院, 接待韩国科学技术院的学者, 或参与任何涉及韩国科学技术院的研究项目。

一旦发展出自主武器,我们将面临战争的第三次革命。自主武器(“机器人杀手”)将让战争的规模比以前更大,速度更快。它们很有可能成为恐怖武器。专制统治者和恐怖分子可以利用它们伤害无辜平民,不顾任何伦理束缚。这个“潘多拉的盒子”一旦被打开将很难关闭。正如过去我们曾经禁止的技术(如致盲激光)一样,我们可以直接决定不再开发。我们敦促韩国科学技术院继续沿着这条道路前进,用人工智能技术来改善人类生活,而不是伤害人类生命。

未经正式授权严禁转载本文,侵权必究。

评论

暂无评论哦,快来评价一下吧!

下载界面新闻

微信公众号

微博

对“终结者”说不!各国AI专家联合抵制韩智能武器研发

它们很有可能成为恐怖武器。专制统治者和恐怖分子可以利用它们伤害无辜平民。这个“潘多拉的盒子”一旦被打开将很难关闭。

来源:视觉中国

据英国《卫报》报道,日前来自20多个国家的50多位顶尖AI(人工智能)学者对韩国科学技术院(KAIST)和军火公司韩华系统(Hanwha Systems)合作建立的“国防和人工智能技术融合研究中心”发出联名公开信,要求其停止研发自主武器(“机器人杀手”)项目,并将抵制一切与韩国科学技术院的合作和交流。

该公开信组织者、澳大利亚新南威尔士大学计算机科学教授沃尔什(Toby Walsh)在接受采访时说:“利用AI技术可以从事很多拯救生命之类伟大的事业,甚至包括在军事领域内。但该机构公然宣称其目标是为了研发自主武器,和这样的(军火)公司合作引起了我们的极大担忧。韩国科学技术院是一个受尊敬的大学,但在这个合作项目中它的合作伙伴的伦理标准备受质疑,经常违反国际规范。”

下周,联合国将在日内瓦举行关于自主武器的会议,20多个国家已经呼吁全面禁止“机器人杀手”。部分地区军队对AI技术的使用,引起了人们对类似科幻电影《终结者》描述情形的恐惧。人们对这种武器的准确性以及它们区分朋友和敌人的能力提出质疑。

韩华是韩国最大的武器制造商之一, 制造由120个国家签署国际公约并禁止的集束弹药。韩国、美国、俄罗斯和中国都不是这项国际公约的签署国。韩国科学技术院与该财团合作,于今年2月开设“国防和人工智能技术融合研究中心”。据该研究中心此前公开的文件,其致力于研发“以AI技术为基础的命令和决策系统、巨型无人驾驶海底机器的导航算法、基于AI技术的智能目标跟踪技术和识别技术”。目前这些文件已被删除。

韩国科技技术院的负责人Sung-Chul Shin表示对抵制表示遗憾。他在一份声明中说:“我需要重申KAIST没有任何意图参与致命性自主武器系统(“机器人杀手”)的研发。作为一个学术机构,我们高度重视人权和伦理标准。我重申KAIST没有进行任何有违人类尊严的研究,包括缺少有效人类控制的自主武器。”

至于其他国家自主武器的进展,沃尔什告诉记者,类似英国BAE系统开发的Taranis军事无人机在技术上已经可以完全自主的完成任务。他认为“机器人杀手”会使所有人更不安全,尤其是在本来就很危险的地区。

可以说,自主武器或“机器人杀手”的研发问题是全球AI研究者和从业人员最关心的问题之一。在2015年的全球人工智能组织国际大会(International Joint Conferences on Artificial Intelligence Organization)上,来自全球的3462名AI或机器人研究人员曾联名发表公开信,表达了对世界范围内研发自主武器的关切。

在2017年8月,以马斯克为代表的来自全球的100名AI从业者表示,各国政府需要“通力合作,避免在自主武器领域开始军备竞赛,保护平民不受到伤害,避免这些科技带来的毁灭性的后果。”在同一年,世界最大的专业技术组织---电气电子工程师学会(IEEE)在其发表的关于自主与智能系统的伦理准则全球倡议书(The IEEE Global Initiative on Ethics of Autonomous and Intelligent Systems )中提道:“虽然在联合国层面已经有多年关于自动化武器的讨论,但(我们认为)人工智能和自动化行业有关智能系统的专业伦理准则应该高于这些标准,并且需要考虑社会更广泛的关切。总的来说,我们希望科技组织承认对武器系统进行有效的人类控制对社会是有好处的。创造这些科技的(企业或组织)需要认识它们工作的重大后果,专业伦理标准需要解决这些意在造成伤害的科技的问题。”

以下为此次全球AI专家对韩国科学技术院(KAIST)联名发表的公开信全文

作为人工智能和机器人技术的研究人员和工程师, 我们对韩国科学技术院(Korea Advanced Institute of Science and Technology)与韩国军火公司韩华系统(Hanwha Systems)合作建立的“国防与人工智能融合研究中心”(Research Center for the Convergence of National Defense and Artificial Intelligence)表示极大的担忧。据报道, 该中心的目标是“开发可用于军事武器的人工智能技术, 加入全球研发自主武器(autonomous weapon)的军备竞赛”。

在联合国正在讨论如何遏制自主武器对国际安全构成的威胁时, 我们非常遗憾的看到, 像韩国科学技术院这样的著名机构似乎在加速军备竞赛, 以发展这种武器。因此, 我们在这里公开宣布, 我们将抵制与韩国科学技术院相关的所有合作, 直到韩国科学技术院负责人向我们保证该中心将不发展完全自主不需要有效人类控制的“机器人杀手”。例如, 我们将不再访问韩国科学技术院, 接待韩国科学技术院的学者, 或参与任何涉及韩国科学技术院的研究项目。

一旦发展出自主武器,我们将面临战争的第三次革命。自主武器(“机器人杀手”)将让战争的规模比以前更大,速度更快。它们很有可能成为恐怖武器。专制统治者和恐怖分子可以利用它们伤害无辜平民,不顾任何伦理束缚。这个“潘多拉的盒子”一旦被打开将很难关闭。正如过去我们曾经禁止的技术(如致盲激光)一样,我们可以直接决定不再开发。我们敦促韩国科学技术院继续沿着这条道路前进,用人工智能技术来改善人类生活,而不是伤害人类生命。

未经正式授权严禁转载本文,侵权必究。