正在阅读:

无人驾驶首条道德准则终于出炉 但它可能会加剧无人驾驶的混乱

扫一扫下载界面新闻APP

无人驾驶首条道德准则终于出炉 但它可能会加剧无人驾驶的混乱

无人驾驶能否被人类接受,其核心障碍是人类是否可以接受一个可能犯错的机器。

 

自动驾驶的道德悖论之所以出现是因为这一问题在自动驾驶时代本质是一个算法问题。是背后的编程人员根据现实经济收益与成本考量的理性选择。也即意味着编程人员需要为无人驾驶的各种问题承担责任。而事实是,无人驾驶能否被人类接受,其核心障碍是人类是否可以接受一个可能犯错的机器。如果人类接受无人驾驶,或者日后出现的智能机器人,并允许他们进入人类社会与我们共处,我们在接受他们提供的便利的同时,也必须接受它们可能的犯错。

文/小语 吴鹏飞

无人驾驶在推动一个产业成长的同时,对于无人驾驶如何进入人类社会正在成为一个变得迫切的问题。

如果我们把具有无人驾驶功能的汽车称之为轮式机器人的话,对于这样新进入人类出行的新生物种,引发的将不止是法律适用的问题,同时会牵涉不少的伦理与道德问题。

而其中的一项道德悖论是当无人驾驶汽车在没有选择只能选择一方碰撞时,到底如何选择。

在这个月末的8月23日,继美国对无人驾驶出台首部法规一年之后,德国交通运输与数字基础建设部下属的道德委员会公布了一套被称为世界上首部的自动驾驶道德准则,供国内发展自动驾驶技术的车商参考。道德委员会经过评估报告,由科学家和法律专家共同提出15条自驾系统的驾驶决策道德准则,准则的核心原则是:生命应该始终优先于财产或动物。

德国运输部长亚历山大·多布林德(Dan Dobrindt)在一份声明中说:“人与人之间的相互作用在数字化和自主系统的时代引起了新的道德问题,伦理委员会已经开展了开创性的工作,并制定了世界上第一个自动驾驶准则,我们正在实施这些指引”。

准则规定无人驾驶汽车的系统必须要不惜一切代价的考虑把人的生命放在首位,也就是说当事故已经无法避免时,无人驾驶汽车可能就要选择撞向建筑等障碍物,而有着车体的保护,这样的判断更容易获得两全的结果。另外规定监视系统,如黑盒子,应该记录活动,以便以后确定事故中谁处于错误的方面:司机或技术。

报告规定的软件设计人员的15条规则,虽然这些准则涵盖了简单的决定,比如把司机的生活优先于松鼠或邮箱,但还有其他更细微的问题仍然留给人的职权范围。报告说:“真正的困境决定,例如人与人之间的决定,取决于实际的具体情况,纳入受影响的各方的”不可预测的“行为。“因此,他们不能被明确地标准化,也不能被编程,使他们在伦理上是不容置疑的。”

这些规范以安全、人性尊严、人身选择自由及数据自主性为重点。

其中明确,人类生命一定是首要任务,在事故无可避免的情况下,人的生命要比其他动物、建物都还重要。另外,当碰到“直走会撞死1个老人,但救2个小孩;急转弯会撞死2个小孩,但救一个老人”这种著名的道德难题时,规范中指出,自驾系统不得以任何年龄、性别、种族、是否残疾等条件,作为“牺牲”和“获救”的判断选择标准。因为人类的生命都是平等的。

事实上这一人类的生命都是平等的判断,将会加剧自动驾驶系统的选择难度。

同时这部规则意味着它可能事实上无法解决自动驾驶的道德悖论,还会导到更多冲突的发生。

这一原则并没有解决问题。

因为在现实世界,不仅仅是中国,同命不同价其实是一个普遍现象,这是现实世界残酷的一面。

一个简单的事例是,在保险公司眼中,一个九旬老人与一个二十岁的青壮年价值是完全不同的。

在不同的主体看来,生命的价值具有不对等的经济价值。

2015年,谷歌自动驾驶项目的负责人当时表示,谷歌的汽车将无法决定谁是一个更好的人,在道德上,有不可避免的碰撞损失。相反,该公司正在努力保护最脆弱的人。

而保护脆弱的人意味着必须对人,不同的人作出划分,对一个人的生命价值与一群人的生命价值作出比对。

这也即是早已存在的由哲学家Philippa Foot提出的“电车难题”。

这一难是是用来批判伦理哲学中的主要理论,特别是功利主义,它的内容是这样的:

五个无辜的人被绑在电车轨道上。一辆失控的电车朝他们驶来,并且片刻后就要碾压到他们。幸运的是,你可以拉一个拉杆,让电车开到另一条轨道上。但是在那另一条轨道上也绑了一个人。你有两个选择:1. 不拉杆,五人死于你手下。2. 拉杆,一人死亡。你会怎么做呢?

Philippa Foot所批判的功利主义,其实也是很多人自认为正确的,即大部分道德决策都是根据“为最多的人提供最大的利益”的原则。

这一难题即以一个功利主义者的观点来看,明显的选择应该是拉拉杆,拯救五个人只杀死一个人。

但是功利主义的批判者认为,一旦拉了拉杆,你就成为一个不道德行为的同谋——你要为另一条轨道上单独的一个人的死负部分责任。

然而,其他人认为,你身处这种状况下就要求你要有所作为,你的不作为将会是同等的不道德。总之,不存在完全的道德行为,这就是重点所在。

这一难题在不同的时代有不同的演化版本,在自动驾驶时代,美国弗吉尼亚州交通创新与研究中心科学家诺亚·古道尔曾提出一种场景:假设一辆自动驾驶汽车马上就要撞到障碍物,它可以选择向左边或右边急转弯,但一边“目标”是戴头盔的摩托车,另一边的“目标”是不敢戴头盔的摩托车手。

按照撞击优化算法的原则,无人驾驶汽车会选择撞向戴头盔的摩托车手,因为从统计数据来看,不戴头盔的车手更有可能死于车祸。

不过这一算法明显存在歧视,遵守规则的戴头盔车手却遭到了惩罚,这一定程度上还是违反了自动驾驶的道德准则。根据德国给出的道德准则,这个问题似乎得到了答案:无人驾驶汽车撞向障碍物。

然而,新的问题又来了,车内人的安全就一定能够得到保障吗?万一车内不止一人,并且还有儿童,相对于骑摩托的车手,谁的安全更重要?从辩证的角度来看,“同命不同价”是无人驾驶需要考虑的重要一点,而非一句生命第一位就能含糊概括的。多条生命之间该选谁?德国这条道德准则并没有给出答案。

自动驾驶的道德悖论之所以出现是因为这一问题在自动驾驶时代本质是一个算法问题。

是背后的编程人员根据现实经济收益与成本考量的理性选择。

也即意味着编程人员需要为无人驾驶的各种问题承担责任。

但如何规避这一悖论,对不同人的生命做出排序是一个无法避免的问题,而目前建立在驾驶行为数据上的UBI保险,其背后考量的也是如此,并已经做为一种商业模式开始运转。

在政治正确层面,生命至高无尚,每个人的生命都是不可替代的,但一个残酷的现实是同命不同价是现实存在的。

即便不单纯指出在中国遇到车祸因城市户口与农村户口的不同,导致的赔偿金额不同,即便在西方法治社会,撞向老人和儿童,所遭遇的赔偿也是不同的。

但是在自动驾驶程序设计中,如果将赔偿金额不同做为一种被动碰撞的选择设定,则无异于一种预先设计的谋杀,其面对的社会质疑无疑是巨大的。

一方面程序的设计者与无人驾驶汽车的拥有者都将承担巨大的道德压力。

那么机器人三原则可以解决这一困境吗?

1940年,科幻作家阿西莫夫提出为保护人类,对机器人做出了三项规定。

第一条:机器人不得伤害人类,或看到人类受到伤害而袖手旁观;

第二条:机器人必须服从人类的命令,除非这条命令与第一条相矛盾;

第三条:机器人必须保护自己,除非这种保护与以上两条相矛盾。

按照可无人驾驶的汽车其实就是轮式机器人的判断,这三原则似乎符合无人驾驶的系统设定。

机器人三原则其实暗含了这样的思维,如果情况紧急,为了保护人类可以牺牲自己。

不过与一般的机器人不同,为了保护行人,无人驾驶汽车可以牺牲自己会产生一个更大的悖论:坐在车内的司机可能也会受到伤害,做为一件商品,做为理性人谁会去购买一件可能伤害购买者本身的汽车?

奔驰在这一问题上立场确是十分鲜明:优先保护车内乘客安全,为此甚至可以伤害弱小的儿童。

2016年,德国梅赛德斯-奔驰公司澳大利亚分公司高管戴维·麦卡锡的话报道,按照无人驾驶汽车的编程思路,如果在行驶途中面临一个道德困境,要么撞到马路上的一名儿童,要么急打方向盘以避免撞到儿童、但可能撞到其他车道的汽车以致本车人员伤亡,那么无人驾驶汽车会“果断”选择优先保护车内人员、宁愿撞到儿童。

麦卡锡说,一般人遇到这种情况,会立即作出踩刹车、打方向盘以避免撞人的反应,“我们的系统也是如此,但还会考虑更多因素,例如其他车道是否有汽车行驶?如果本车采取避让举动,有可能会撞上其他车道的汽车,结果导致本车偏离方向、反而冲向路人”。

按照麦卡锡的说法,无人驾驶汽车能在危急关头瞬间判断出“最佳选择”,从而将损伤降至最低。

奔驰的选择在一定程度上与2016年美国的一项调查有某种程度上的契和之处。在这一调查中,受访者普遍认为无人驾驶汽车不应为拯救一名路人而牺牲车内人员。

但当问卷中被拯救的路人数量增多,愿意牺牲车内人员以拯救路人的受访者比例随之升高。

当被拯救的路人数量增至10人,受访者普遍赞同应优先拯救路人。但与此同时,这些受访者表示自己更加不愿意购买无人驾驶汽车。

自动驾驶的这一道德悖论无论将生命放在第一位还是第二位,在现实世界看来都将是一个无解的问题。

而其实这一问题如何设定,一个前提即是不能由生产厂商自行设定,无人驾驶的算法设定既不可违背法律,也必须建立在公序良俗之上,而由政府设定某些原则是必须的。

德国交通部出台的首部无人驾驶道德准则是及时的,也是负责任的,尽管目前他可能会催生更多的混乱,类似于正确的废物话。

事实上,无人驾驶的道德准则仅凭一句生命第一还远远不够。程序没有思想,只能执行,所以无人驾驶车遇到的突发情况都需要工程师进行理性的分析,通过收集数据和软件算法给出最安全的方案,保证最大的存活率。

也许大数据最终会给无人驾驶一个在道德选择时最合理的结果。

不过在探讨这一看似无解的悖论时,它其实体现了人类的内心有一个无妄之念,即希望人类可以通过穷尽一切可能,让机器不犯错,零犯错。

而事实是,无人驾驶能否被人类接受,其核心障碍是人类是否愿意接受一个可能犯错的机器。

如果人类接受无人驾驶,或者日后出现的智能机器人,并允许他们进入人类社会与我们共处,我们在接受他们提供的便利的同时,也必须接受它们可能的犯错。

手机都可能死机,机器人怎么可能不犯错呢?

如果我们可以接受一个可能会犯错的无人驾驶汽车,这背后其实就是一个责任问题了。

这也意味着无人驾驶汽车的拥有者将承担因道德选择而导致最终后果的责任。

也即解决无人驾驶道德选择的问题,不再使之是一个算法问题而是一个经济赔偿问题。

而为此那些宣扬无人驾驶时代是零伤亡的生产商们应该更改一下他们向人类许下的空头支票。虽然90%的车祸归咎于人为失误,但无人驾驶并不代表完全没有车祸,零伤亡是一个虚妄的想像,现实世界谁都会犯错,即便是一台比人类还要聪明的机器。

本文为转载内容,授权事宜请联系原著作权人。

评论

暂无评论哦,快来评价一下吧!

下载界面新闻

微信公众号

微博

无人驾驶首条道德准则终于出炉 但它可能会加剧无人驾驶的混乱

无人驾驶能否被人类接受,其核心障碍是人类是否可以接受一个可能犯错的机器。

 

自动驾驶的道德悖论之所以出现是因为这一问题在自动驾驶时代本质是一个算法问题。是背后的编程人员根据现实经济收益与成本考量的理性选择。也即意味着编程人员需要为无人驾驶的各种问题承担责任。而事实是,无人驾驶能否被人类接受,其核心障碍是人类是否可以接受一个可能犯错的机器。如果人类接受无人驾驶,或者日后出现的智能机器人,并允许他们进入人类社会与我们共处,我们在接受他们提供的便利的同时,也必须接受它们可能的犯错。

文/小语 吴鹏飞

无人驾驶在推动一个产业成长的同时,对于无人驾驶如何进入人类社会正在成为一个变得迫切的问题。

如果我们把具有无人驾驶功能的汽车称之为轮式机器人的话,对于这样新进入人类出行的新生物种,引发的将不止是法律适用的问题,同时会牵涉不少的伦理与道德问题。

而其中的一项道德悖论是当无人驾驶汽车在没有选择只能选择一方碰撞时,到底如何选择。

在这个月末的8月23日,继美国对无人驾驶出台首部法规一年之后,德国交通运输与数字基础建设部下属的道德委员会公布了一套被称为世界上首部的自动驾驶道德准则,供国内发展自动驾驶技术的车商参考。道德委员会经过评估报告,由科学家和法律专家共同提出15条自驾系统的驾驶决策道德准则,准则的核心原则是:生命应该始终优先于财产或动物。

德国运输部长亚历山大·多布林德(Dan Dobrindt)在一份声明中说:“人与人之间的相互作用在数字化和自主系统的时代引起了新的道德问题,伦理委员会已经开展了开创性的工作,并制定了世界上第一个自动驾驶准则,我们正在实施这些指引”。

准则规定无人驾驶汽车的系统必须要不惜一切代价的考虑把人的生命放在首位,也就是说当事故已经无法避免时,无人驾驶汽车可能就要选择撞向建筑等障碍物,而有着车体的保护,这样的判断更容易获得两全的结果。另外规定监视系统,如黑盒子,应该记录活动,以便以后确定事故中谁处于错误的方面:司机或技术。

报告规定的软件设计人员的15条规则,虽然这些准则涵盖了简单的决定,比如把司机的生活优先于松鼠或邮箱,但还有其他更细微的问题仍然留给人的职权范围。报告说:“真正的困境决定,例如人与人之间的决定,取决于实际的具体情况,纳入受影响的各方的”不可预测的“行为。“因此,他们不能被明确地标准化,也不能被编程,使他们在伦理上是不容置疑的。”

这些规范以安全、人性尊严、人身选择自由及数据自主性为重点。

其中明确,人类生命一定是首要任务,在事故无可避免的情况下,人的生命要比其他动物、建物都还重要。另外,当碰到“直走会撞死1个老人,但救2个小孩;急转弯会撞死2个小孩,但救一个老人”这种著名的道德难题时,规范中指出,自驾系统不得以任何年龄、性别、种族、是否残疾等条件,作为“牺牲”和“获救”的判断选择标准。因为人类的生命都是平等的。

事实上这一人类的生命都是平等的判断,将会加剧自动驾驶系统的选择难度。

同时这部规则意味着它可能事实上无法解决自动驾驶的道德悖论,还会导到更多冲突的发生。

这一原则并没有解决问题。

因为在现实世界,不仅仅是中国,同命不同价其实是一个普遍现象,这是现实世界残酷的一面。

一个简单的事例是,在保险公司眼中,一个九旬老人与一个二十岁的青壮年价值是完全不同的。

在不同的主体看来,生命的价值具有不对等的经济价值。

2015年,谷歌自动驾驶项目的负责人当时表示,谷歌的汽车将无法决定谁是一个更好的人,在道德上,有不可避免的碰撞损失。相反,该公司正在努力保护最脆弱的人。

而保护脆弱的人意味着必须对人,不同的人作出划分,对一个人的生命价值与一群人的生命价值作出比对。

这也即是早已存在的由哲学家Philippa Foot提出的“电车难题”。

这一难是是用来批判伦理哲学中的主要理论,特别是功利主义,它的内容是这样的:

五个无辜的人被绑在电车轨道上。一辆失控的电车朝他们驶来,并且片刻后就要碾压到他们。幸运的是,你可以拉一个拉杆,让电车开到另一条轨道上。但是在那另一条轨道上也绑了一个人。你有两个选择:1. 不拉杆,五人死于你手下。2. 拉杆,一人死亡。你会怎么做呢?

Philippa Foot所批判的功利主义,其实也是很多人自认为正确的,即大部分道德决策都是根据“为最多的人提供最大的利益”的原则。

这一难题即以一个功利主义者的观点来看,明显的选择应该是拉拉杆,拯救五个人只杀死一个人。

但是功利主义的批判者认为,一旦拉了拉杆,你就成为一个不道德行为的同谋——你要为另一条轨道上单独的一个人的死负部分责任。

然而,其他人认为,你身处这种状况下就要求你要有所作为,你的不作为将会是同等的不道德。总之,不存在完全的道德行为,这就是重点所在。

这一难题在不同的时代有不同的演化版本,在自动驾驶时代,美国弗吉尼亚州交通创新与研究中心科学家诺亚·古道尔曾提出一种场景:假设一辆自动驾驶汽车马上就要撞到障碍物,它可以选择向左边或右边急转弯,但一边“目标”是戴头盔的摩托车,另一边的“目标”是不敢戴头盔的摩托车手。

按照撞击优化算法的原则,无人驾驶汽车会选择撞向戴头盔的摩托车手,因为从统计数据来看,不戴头盔的车手更有可能死于车祸。

不过这一算法明显存在歧视,遵守规则的戴头盔车手却遭到了惩罚,这一定程度上还是违反了自动驾驶的道德准则。根据德国给出的道德准则,这个问题似乎得到了答案:无人驾驶汽车撞向障碍物。

然而,新的问题又来了,车内人的安全就一定能够得到保障吗?万一车内不止一人,并且还有儿童,相对于骑摩托的车手,谁的安全更重要?从辩证的角度来看,“同命不同价”是无人驾驶需要考虑的重要一点,而非一句生命第一位就能含糊概括的。多条生命之间该选谁?德国这条道德准则并没有给出答案。

自动驾驶的道德悖论之所以出现是因为这一问题在自动驾驶时代本质是一个算法问题。

是背后的编程人员根据现实经济收益与成本考量的理性选择。

也即意味着编程人员需要为无人驾驶的各种问题承担责任。

但如何规避这一悖论,对不同人的生命做出排序是一个无法避免的问题,而目前建立在驾驶行为数据上的UBI保险,其背后考量的也是如此,并已经做为一种商业模式开始运转。

在政治正确层面,生命至高无尚,每个人的生命都是不可替代的,但一个残酷的现实是同命不同价是现实存在的。

即便不单纯指出在中国遇到车祸因城市户口与农村户口的不同,导致的赔偿金额不同,即便在西方法治社会,撞向老人和儿童,所遭遇的赔偿也是不同的。

但是在自动驾驶程序设计中,如果将赔偿金额不同做为一种被动碰撞的选择设定,则无异于一种预先设计的谋杀,其面对的社会质疑无疑是巨大的。

一方面程序的设计者与无人驾驶汽车的拥有者都将承担巨大的道德压力。

那么机器人三原则可以解决这一困境吗?

1940年,科幻作家阿西莫夫提出为保护人类,对机器人做出了三项规定。

第一条:机器人不得伤害人类,或看到人类受到伤害而袖手旁观;

第二条:机器人必须服从人类的命令,除非这条命令与第一条相矛盾;

第三条:机器人必须保护自己,除非这种保护与以上两条相矛盾。

按照可无人驾驶的汽车其实就是轮式机器人的判断,这三原则似乎符合无人驾驶的系统设定。

机器人三原则其实暗含了这样的思维,如果情况紧急,为了保护人类可以牺牲自己。

不过与一般的机器人不同,为了保护行人,无人驾驶汽车可以牺牲自己会产生一个更大的悖论:坐在车内的司机可能也会受到伤害,做为一件商品,做为理性人谁会去购买一件可能伤害购买者本身的汽车?

奔驰在这一问题上立场确是十分鲜明:优先保护车内乘客安全,为此甚至可以伤害弱小的儿童。

2016年,德国梅赛德斯-奔驰公司澳大利亚分公司高管戴维·麦卡锡的话报道,按照无人驾驶汽车的编程思路,如果在行驶途中面临一个道德困境,要么撞到马路上的一名儿童,要么急打方向盘以避免撞到儿童、但可能撞到其他车道的汽车以致本车人员伤亡,那么无人驾驶汽车会“果断”选择优先保护车内人员、宁愿撞到儿童。

麦卡锡说,一般人遇到这种情况,会立即作出踩刹车、打方向盘以避免撞人的反应,“我们的系统也是如此,但还会考虑更多因素,例如其他车道是否有汽车行驶?如果本车采取避让举动,有可能会撞上其他车道的汽车,结果导致本车偏离方向、反而冲向路人”。

按照麦卡锡的说法,无人驾驶汽车能在危急关头瞬间判断出“最佳选择”,从而将损伤降至最低。

奔驰的选择在一定程度上与2016年美国的一项调查有某种程度上的契和之处。在这一调查中,受访者普遍认为无人驾驶汽车不应为拯救一名路人而牺牲车内人员。

但当问卷中被拯救的路人数量增多,愿意牺牲车内人员以拯救路人的受访者比例随之升高。

当被拯救的路人数量增至10人,受访者普遍赞同应优先拯救路人。但与此同时,这些受访者表示自己更加不愿意购买无人驾驶汽车。

自动驾驶的这一道德悖论无论将生命放在第一位还是第二位,在现实世界看来都将是一个无解的问题。

而其实这一问题如何设定,一个前提即是不能由生产厂商自行设定,无人驾驶的算法设定既不可违背法律,也必须建立在公序良俗之上,而由政府设定某些原则是必须的。

德国交通部出台的首部无人驾驶道德准则是及时的,也是负责任的,尽管目前他可能会催生更多的混乱,类似于正确的废物话。

事实上,无人驾驶的道德准则仅凭一句生命第一还远远不够。程序没有思想,只能执行,所以无人驾驶车遇到的突发情况都需要工程师进行理性的分析,通过收集数据和软件算法给出最安全的方案,保证最大的存活率。

也许大数据最终会给无人驾驶一个在道德选择时最合理的结果。

不过在探讨这一看似无解的悖论时,它其实体现了人类的内心有一个无妄之念,即希望人类可以通过穷尽一切可能,让机器不犯错,零犯错。

而事实是,无人驾驶能否被人类接受,其核心障碍是人类是否愿意接受一个可能犯错的机器。

如果人类接受无人驾驶,或者日后出现的智能机器人,并允许他们进入人类社会与我们共处,我们在接受他们提供的便利的同时,也必须接受它们可能的犯错。

手机都可能死机,机器人怎么可能不犯错呢?

如果我们可以接受一个可能会犯错的无人驾驶汽车,这背后其实就是一个责任问题了。

这也意味着无人驾驶汽车的拥有者将承担因道德选择而导致最终后果的责任。

也即解决无人驾驶道德选择的问题,不再使之是一个算法问题而是一个经济赔偿问题。

而为此那些宣扬无人驾驶时代是零伤亡的生产商们应该更改一下他们向人类许下的空头支票。虽然90%的车祸归咎于人为失误,但无人驾驶并不代表完全没有车祸,零伤亡是一个虚妄的想像,现实世界谁都会犯错,即便是一台比人类还要聪明的机器。

本文为转载内容,授权事宜请联系原著作权人。