美国等国家目前正在研制机器人武器,在未来几十年的时间内(甚至是更短),它们可能就可以自己选择攻击的目标进行打击,甚至对人类发起进攻,成为名副其实的杀人机器人。
所谓的致命性自主武器系统(Lethal Autonomous Weapons Systems)就是能够自主选择目标并发起攻击的武器,它和无人机还不尽相同,无人机实际上还是有人在远程控制的,由人来决定何时发起攻击。而自主武器则完全是由机器自己选择和锁定攻击目标。
人类到底应不应该允许这种杀人机器的出现?支持方和反对方各执一词,也有人认为,自主武器可以用,但必须有一定的先决条件。
《基督教科学箴言报》文章说,据五角大楼正在进行的一项研究显示,机器人武器技术可以增加无人机的精确度,减少军队的伤亡。另外,支持者表示,采用机器人武器可以减少战场上由人做出的那种冲动、非理性的决定。
不过,批评人士担心,完全由机器做出事关生死的战斗决定是不道德的,违反人权法以及国际战争法。他们要求全面禁止研究、部署和使用此类武器。
反对者包括人权组织、国际红十字会、逾20名诺贝尔和平奖得主以及机器人和人工智能领域的科学家。
宾州大学政治科学副教授Michael C. Horowitz和新美国安全中心(Center for a New American Security)研究员Paul Scharre在《纽约时报》发表观点文章说,今年4月中旬90个国家和几十家非政府组织聚首日内瓦,商讨致命性自主武器带来的挑战,一个由50多个非政府组织组成的联盟要求禁止此类武器的研发和使用。
这些反对者认为,当今的技术还不足以好到让自主武器能可靠地分清楚民用目标和军事目标,因此很难让其不违反军事法。在某些时候,这确实是事实。不过,情况也不尽如此。文章称,比如,全球30多个国家拥有自动防御系统,可以击落入侵的火箭弹和导弹,它们由人来监控,不过在启动之后,这些系统不需要人的进一步干预就可以识别锁定目标。这样的自动防御系统十分有效,而且几十年来也从未引起过争议。
另外,致命性自主武器还有可能带来新一轮武器扩散问题。《基督教科学箴言报》援引加州大学伯克利分校电脑科学家Stuart Russell说,如果进一步研发这些武器会带来什么?会出现军备竞赛吗?这样的军备竞赛的结果会是怎样呢?
当Russell刚开始思考致命性自主武器的时候,他本能的直觉是“也许人工智能可能做更好的工作,也许我们可以生产出能够更加精准打击目标的武器,减少对平民生活和财产的破坏。”
然而,军备竞赛的可能性让他打消了这一念头,而且一些专制政府还有可能利用这些武器对付自己的百姓。
不过,要完全禁止致命性自主武器技术的研发也不太现实。迈阿密大学法律学院副教授Markus Wagner表示,其中的一些技术不仅能应用到军事领域,也能应用到民用领域。他认为,当务之急是制定一套致命性自主武器的部署标准,并用现有的法律体系加以约束。
Horowitz和Scharre也认为,不应该以当今的技术水平为由禁止自主武器系统的开发和使用,不过,各国政府也必须开始采取措施保证军队以安全、负责任的态度使用自主武器技术,能在使用这些武器时保留人的判断和责任。
如果使用得当,自主武器可以减少战争中人员的伤亡,不过,即便自主武器可以准确识别和锁定目标,它们也会带来安全、责任和控制的问题。最重要的是,必须避免出现当自主武器被广泛使用时,平民领袖和军队领袖不再顾及任何伦理方面战争成本的这种情况。
文章说,夺取他人生命的决定还是应该由人来决定。
去年年底,牛津大学马丁学院的一篇论文也呼吁要约束自主武器的使用。论文敦促各国政府要意识到机器人武器和无人机在未来战争中的影响,并就此采取相应的行动。
论文第一作者Alex Leveringhaus说,自主机器人武器、军人可以遥控杀人的的概念让许多人感觉很不舒服。让人担心的问题是:在人们还没有机会就杀人机器人的法律和道德问题达成一致之前,新技术已经让这些杀人武器变为现实。
论文认为,目前一个优先考虑的问题就是,确保人类在任何时候对武器都拥有控制权,在必要的时候能够控制住武器。
法国外交部安全事务顾问Jean-Baptiste Jeangène Vilmer日前撰文也谈到了“杀人机器人”的道德问题,认为完全禁止此类武器的研发并不妥当。
他认为,更为明智的办法是为这些武器制定保障机制,包括执行相关法律、对致命性自主武器的攻击目标加以限制和明确、设定此类武器使用的环境和条件、人类仍要掌握最终的控制权等。
评论