X

当必须选一人“撞死”时,无人驾驶汽车将怎么做?

Uber自动驾驶汽车发生撞车事故

图片来源于网络,若有侵权请告知,我们会删除

本文作者:省情新媒体中心 黄语心

本文字数:3399字

1分钟速览

2018/11/29

1. 当无人驾驶汽车遇上“电车难题”,应该做出什么选择?

2. MIT的实验揭露全球性偏好:人类>动物,多数人>少数人,儿童>成人。

3. 德国议员提出:所有人的生命都应该被赋予同等的价值,任何基于个人特征(如年龄或性别)的区别都应该被禁止。

4. 没有简单的答案,重要的是让这些决定变得透明。

5. 如果在未来,每一条生命都被赋予了一个价值来决定谁被牺牲,这又意味着什么?

如果无人驾驶汽车真的普及开来,即使在技术100%成熟的情况下,人类社会仍然不得不应对一种新的困境:在无可避免的交通事故前,如何根据人类的偏好对无人驾驶汽车进行编程。

当发生突发事故时,人类司机会本能地做出选择,但人工智能算法将能够提前做好这些决定。那么,当汽车公司给汽车输入程式代码时,应该告诉它优先拯救老人还是年轻人?富人还是穷人?

2015年 · 无人驾驶正式亮相

2015年5月,谷歌宣布他们的无人驾驶汽车已经行驶超过百万英里了。把进度条快进到2018年的今天,无人驾驶的竞争正在进入白热化的阶段。

据环球网11月26日报道,北京四维图新科技股份有限公司(NavInfo)正在为自动驾驶汽车制作高清晰的新加坡地图。预计该工作将于2019年完成。

早在去年11月,新加坡推出了一个测试无人驾驶公共交通的小镇。从明年3月起,自动驾驶巴士还将在新加坡国立大学校园周围运营。

美国的国际金融服务公司Morgan Stanley称无人驾驶汽车将会在2025年投入量产。

这时候我们不得不承认,许多曾经只出现在科幻小说里的情节,都正以比想象更快的速度,一步步成为现实。

1942年 · 机器人三原则

早在上世纪40年代,人类就已经意识到科学技术的进步很可能引发一些人类不希望出现的问题。

为了保护人类,科幻作家阿西莫夫(Isaac Asimov)的短篇小说“Runaround”中提出了关于机器人学的三条制约性的法则:

“LawⅠ:A ROBOT MAY NOT INJURE A HUMAN BEING OR, THROUGH INACTION, ALLOW A HUMAN BEING TO COME TO HARM.

第一定律:机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手不管。

LawⅡ:A ROBOT MUST OBEY ORDERS GIVEN IT BY HUMAN BEINGS EXCEPT WHERE SUCH ORDERS WOULD CONFLICT WITH THE FIRST LAW.

第二定律:机器人必须服从人给予它的命令,当该命令与第一定律冲突时例外。

LawⅢ:A ROBOT MUST PROTECT ITS OWN EXISTENCE AS LONG AS SUCH PROTECTION DOES NOT CONFLICT WITH THE FIRST OR SECOND LAW.

第三定律:机器人在不违反第一、第二定律的情况下要尽可能保护自己的生存。”

根据阿西莫夫小说改编的电影《机械公敌》剧照

这篇小说很好地提供了一个关于人工智能与人类共存的伦理背景。毫无疑问,拥有人工智能的车也应当遵守这些法则。

之后,包括阿西莫夫本人在内也有许多人不断提出对机器人三原则的补充、修正。然而,文章一开头题出的问题,机器人法则始终没有提到,也没有提供任何有参考价值的解决方案。

1967年 · 电车难题

这是一个著名的哲学实验性猜想,于1967年由英国哲学家菲利帕·富特(Philippa Foot)提出,被称为“电车难题(Trolley Problem)”:

一辆有轨电车,突然失去了控制(原因待查)。在轨道正前方,正巧——或者说不幸,有五个铁路工人在施工。如果不作任何处理,电车将直接撞上这五个工人,不存在任何侥幸。司机无法刹车——刹车已经失灵(原因依然不详)!但,司机并不是眼睁睁看着惨剧发生,他还有一个唯一的选项——电车方向盘还是有用的,他可以扳动一下方向盘,使电车驶进另外一条轨道。在另外一条轨道上,只有一名工人。因此,如果司机扳动方向盘,他可以救下那五个人,但要轧死另外一个人。司机应当怎样做?

“电车难题”图解

如果司机是你,你会怎么做?

显然我们的无人驾驶汽车也将面临一样的窘境,无可避免地,所有交通工具都要面对同样的难题。

2018年 · “道德机器”实验

2018年10月28日,麻省理工学院(MIT)发表了一篇新论文,内容正好是公众对这些问题的看法的相关调查,以及对2016年推出的一项名为“道德机器”(Moral Machine)的在线测试数据的整理。

测试要求用户对虚构的车祸做出一系列伦理抉择,类似于著名的“电车难题”。

研究人员对9个不同的因素进行了测试,包括倾向于撞向男性还是女性、挽救更多或更少的生命、拯救年轻人或老年人、行人或乱穿马路者,甚至在社会地位低的人和社会地位高的人之间做出选择。

来自233个国家和地区的数百万用户参加了这个测试,总共做出了4000万个道德决定。

数据揭露了某些全球一致的偏好:人类>动物,多数人>少数人,儿童>成人。文章作者建议,在为自动驾驶汽车制定法律时,这些因素应被视为制定政策的“基本构成要素”。但他强调,这些研究结果绝不是人工智能进行算法决策时所遵循的模板。

“我们在这里试图展示的是描述性伦理:人们在伦理决策中的偏好,”论文作者之一埃德蒙•阿瓦德(Edmond Awad)对《边缘》杂志表示。“但当涉及到规范性伦理(应该如何做)时,应该由专家来决定。”

数据还显示,不同国家的伦理偏好也存在显著差异。相关因素有许多,例如:地理(例如,欧洲和亚洲国家之间的差异)和文化(个人主义社会与集体主义社会的区别)。

“道德机器”中的一个示例场景:无人驾驶汽车应该撞行人还是障碍物?

文化如何影响道德偏好

“道德机器”的结果表明,人们的道德偏好会随着某些分歧而变化。所有这些分歧都没有改变某些核心原则(比如将多数人置于少数人之上),但也产生了不少地域性差异。

研究发现,在亚洲和中东国家,比如中国、日本和沙特阿拉伯,偏爱年轻人而不是长者的现象“远没有其余地区明显”。与欧洲和北美受访者相比,这些国家的人也相对不那么在意是否要拯救高净值的个体。

作者认为这可能是地区间个人主义和集体主义的文化差异造成的。前者强调个人作为独立个体的特有价值,因此偏袒“个人价值更高的个体”。与之相反,对年轻人偏爱的减弱,可能是集体主义文化的结果,“这种文化强调对社区中长者的尊重。”

图源:The Moral Machine experiment

这些差异表明,“地理和文化上的接近,可能会让不同地区的人们在对机器伦理的共同偏好上趋同”。

然而,还有一些在地理层面之外的变异因素。例如,那些相对贫穷,人均GDP较低,公民机构较不成熟的国家的人,对遵守交通规则合法过马路的人比对那些乱穿马路的行人要仁慈得多。“大概是因为在那些地区规则遵守程度较低,对违规行为的惩罚较轻”而导致的对群众对违法者更强烈的不满。

作者强调,“道德机器”的结果绝不是对不同国家道德偏好的最终评估。首先,这个测试是自我选择的,并不具有人类全体的客观代表性。

其次,它的问题结构也忽略了许多细微差别。测试只给参与者提供了非黑即白的选项:杀死这些人或那些人。但在现实生活中,这些决定是受当下的实际情况影响的,是可以根据结果的严重程度来做出选择的。(“如果我绕过这辆卡车,我将有更大的几率减速并减少对那个行人的伤害,”等等。)

如何将道德写进法律

那么在这些问题上,我们离立法还有多远?企业什么时候开始为无人驾驶汽车制定道德决策?

第二个问题的答案已经有了:企业正在做这件事情。不管被输入的计算机算法是什么,会导致怎样的结果,这台汽车都会做出某种决定,并因此导致某种伦理后果。

粗略的偏好很可能已经被纳入其中,即使相关公司不愿公开谈论它们。

早在2014年,谷歌X创始人塞巴斯蒂安•特伦(Sebastian Thrun)就曾表示,该公司的原型自动驾驶汽车在发生碰撞时,会选择撞击两个物体中较小的一个。

2016年,谷歌的克里斯•厄姆森(Chris Urmson)表示,该公司的汽车将“尽最大努力避免撞到容易受伤的道路使用者:骑自行车的人和行人”。同年,据报道,奔驰的一名经理表示,他们的自动驾驶汽车在发生事故时会优先考虑乘客的生命安全,不过该公司后来又否认了这一说辞。

公司不愿意公开这些决定是可以理解的。一方面,自动驾驶系统还不够成熟,它无法区分年轻人和老年人。分辨出松鼠和骑自行车的人已经是目前最先进的算法和传感器的能力极限了。

此外,无论公司说他们优先考虑哪种生命,人还是动物,乘客还是行人,都会让某些人感到不安。这就是为什么这些是道德困境:没有简单的答案。

欧洲政策研究中心(Centre for European Policy Studies)高级研究员安德里亚•伦达(Andrea Renda)表示,私营企业在这些问题上做的工作最多。虽然私营企业与公众需要参与这些辩论,但是“仅仅依靠自下而上的协商将是极其危险的”。他说,政府和专家将必须担起重任,确保选择尊重人权。

德国,是在这一议题上的先行者,是迄今为止唯一一个就自动驾驶汽车的道德选择题给出官方指导方针的国家。议员们在试图解决电车难题的棘手问题时提出,所有人的生命都应该被赋予同等的价值,任何基于个人特征(如年龄或性别)的区别都应该被禁止。

但正如“道德机器”研究人员所指出的那样,如果选择人人平等的价值观来做算法决策,它将违背公众想要保护儿童多于成人的强烈偏好。如果政府真的出台禁止对任何生命有所偏好的政策,它将如何应对“一辆无人驾驶汽车在两难境地选择牺牲了儿童”时的千夫所指。

全人类都要交的答卷

阿瓦德认为,这种冲突是“不可避免的”。但与贺建奎的“基因编辑婴儿”被伦理讨伐的一大原因一样,“重要的是让这些决定变得透明”

他说,“要让众人知道正在做的是什么。如果这一切都发生在幕后,汽车公司说’相信我们’,我认为这是不可接受的。每个人都需要参与这些决定的形成过程。

虽然自动驾驶技术仍有一段路要走,但在未来的某个时候,我们将必须做出这些决定。

然而,你能想象未来的某一天里,谷歌或任何科技巨头为我们每一条生命都赋予了一个价值,然后在某个时刻牺牲某人来拯救他人吗?你觉得这意味着什么?

随着无人驾驶汽车的出现,“电车难题”变得越加有趣和深奥。在未来的某一天,人类是否能交出一个满意的答卷?

今日作者

·END·

图片来源于网络,若有侵权请告知,我们会删除。