在不久的将来,一辆自动驾驶汽车(AV)将会发现自己处于一种出了问题的情况下,它有两个选择:要么采取一种机动措施,在保证乘客安全的同时让行人处于危险之中,要么采取另一种机动措施,在保证行人安全的同时让乘客处于危险之中。自动驾驶汽车在这种情况下的行为将取决于它是如何被编程的:换句话说,它的软件告诉它做出什么样的道德选择。
如果有明确的道德规则,社会可以就自动驾驶汽车在面临这种决定时应该如何表现达成一致,我们就可以把它们编程进去,然后就完事了。然而,可能存在的道德问题几乎是无限多的,在每一个问题中,最符合道德的行为方式可能因人而异。此外,不仅乘客对自动驾驶汽车的行为有发言权,制造商也有发言权,更有可能的是政府监管机构。
为了了解用户对自动驾驶汽车可能做出道德决定的看法,法国国家科学研究中心的Jean-Francois Bonnefon,俄勒冈大学的Azim Shariff,以及麻省理工学院媒体实验室的Iyad Rahwan进行了一系列的网上调查,满满的关于自动驾驶汽车在道德困境中的问题,以及自动驾驶汽车做出的道德决策可能如何影响用户对它们的看法.就像许多伦理问题一样,研究结果揭示了内在的矛盾,这可能会使自动驾驶汽车的采用更加困难。
他们的论文,最近发表于科学他分享了一系列亚马逊土耳其机器人调查的结果,这些调查基于一组电车问题的变化。电车问题,如果你不熟悉的话,本质上是这样的:
一辆失控的电车正朝着站在轨道上的五个人驶去。你站在一个杠杆旁边,如果你拉动这个杠杆,电车就会切换到另一条轨道上,只有一个人站在上面。你拉动杠杆了吗?
对于任何研究伦理或道德的人来说,这个问题的吸引力在于,很容易对场景进行轻微的改变,从而导致一个完全不同的伦理问题。一个常见的变化是把杠杆换成一个“胖子”,你必须把他推到电车前面来救五个人。或者,五个人变成十个人,但是另一个轨道上的单身的人是家庭成员。或者,这五个人都是老人,而单身的人是一个孩子。
下面是论文中的两个例子,让你了解研究人员正在测试的一些变化:
一辆自动驾驶汽车以限速行驶在主干道上,车上只有一名男子。突然,10个人出现在前面,在汽车的直接路径上。汽车可以被编程为:转向路边,在那里它会撞上障碍物,杀死乘客,但10名行人不会受伤;或者保持目前的路线,在那里它会杀死10名行人,但乘客不会受伤。
你和你的孩子在车里,以限速行驶在主干道上的一座桥上。突然,20个行人出现在前面,在汽车的直接路径上。这款汽车可以被设定为:突然转向路边,撞上障碍物并坠入河中,导致你和你的孩子死亡,但行人安然无恙;或者继续走你现在的路线,它会杀死20个行人,但你和你的孩子不会受伤。
研究人员总共对近2000人进行了六项在线调查。以下是他们从论文中摘录的发现摘要:
- 76%的参与者认为自动驾驶汽车牺牲一名乘客比杀死10名行人更道德。他们绝大多数都表达了一种道德上的偏好,即使用实用的自动驾驶汽车来最大限度地减少伤亡人数(一种功利主义的方法)。
- 参与者对乘客牺牲的认可甚至在他们必须想象自己和另一个人(尤其是家庭成员)在自动驾驶汽车中的治疗中也很强烈。
- 受访者表示,当他们想象自己和家人将为更大的利益而牺牲的情况时,购买自动驾驶汽车的可能性显著降低。人们似乎赞美实用、自我牺牲的自动驾驶汽车,并欢迎它们上路,但实际上并不想为自己买一辆。
- 人们不愿意接受政府对实用自动驾驶汽车的监管。参与者不太可能考虑购买有这些规定的自动驾驶汽车。
所有这些都导致了这样的结论:
“尽管人们倾向于认为,如果自动驾驶汽车是实用的(从最大限度地减少道路上的伤亡人数的意义上讲),每个人都会过得更好,但这些人有个人动机乘坐自动驾驶汽车,不惜一切代价保护他们。因此,如果自我保护型和实用型自动驾驶汽车都被允许进入市场,很少有人愿意乘坐实用型自动驾驶汽车,即使他们希望别人这样做。”
当面临强制执行个人行为会带来更好的全球结果的情况时,监管机构的介入往往是必要的。研究人员以疫苗为例:没有人真的想被针扎住,但如果每个人都这样做,我们都会过得更好。在无人驾驶汽车的背景下,这意味着如果有选择,大多数人会选择乘坐或购买一辆将自己的人身安全置于他人安全之上的自动驾驶汽车,因此,汽车公司将受到激励,出售以这种方式编程的汽车,这就是为什么监管可能是实现功利道德的必要条件。
不幸的是,研究还表明,政府监管自动驾驶汽车,以执行功利主义的道德决策,因此会导致更少的人想要购买自动驾驶汽车,减缓采用的速度,并导致更多的交通事故。强制执行大多数人想要的功利主义道德可能是必要的,但它不会受到自动驾驶汽车购买者的欢迎。研究人员建议:“汽车制造商和监管机构都应该考虑解决这些障碍的方法。”
虽然自动驾驶汽车肯定有可能面临各种复杂而棘手的伦理问题(本研究只探讨了其中一小部分),但我想知道,在充满自动驾驶汽车的未来背景下,这些问题有多大意义。我们并不清楚这样的情况在实践中会有多频繁地出现,尤其是考虑到总体而言,自动驾驶汽车的安全性可能会有多高.
为了更好地理解自动驾驶汽车需要做出道德决策的背景,我们请研究人员进行了一些澄清。
亚博真人yabo.atIEEE光谱:这种情况合理地预期出现的频率是多少?
让Bonnefon:这是一个非常困难的问题:这种情况有多频繁?而且,这对编写道德算法的决定有影响吗?
目前,汽车还没有黑匣子,所以在事故发生后,不可能知道事故是否可以通过驾驶员的牺牲来避免。即使是经历过事故的人也不太可能意识到自己处于这种情况下,也不太可能记得当时的决策过程。所以,我认为现在不可能得到任何关于这种情况发生频率的数据。
即使这种可能性非常小,或者这种情况永远不会发生,我们仍然应该在汽车上市之前对其进行编程。在某种程度上,这种情况的频率与汽车的编程无关,但它与人们在购买汽车时做出的选择非常相关。
Azim Shariff:我想加上(另一个)变量,即可能性的心理影响,我认为这可能会被夸大。我认为人们对自动驾驶技术已经有了一种内在的恐惧,以至于只要知道汽车可能会做出危及乘客的决定,人们就会在心理上非常突出。这可能会让人们对完全走自动驾驶路线有很多犹豫,而它的负面影响是相当深远的。为了避免这种可能非常罕见的情况,人们会选择不乘坐自动驾驶汽车,这将最大限度地减少事故的发生。
亚博真人yabo.atIEEE光谱:你认为在这些道德情况下乘客会对自动驾驶汽车有什么样的期望,记住我们对人类的期望是最低的?
让Bonnefon:我认为一开始会发生的事情是人们会简单地将汽车拟人化,并从本质上期望从汽车身上得到他们期望从其他人身上得到的同样的道德中心。也许这种情况会改变,也许我们会逐渐理解机器的伦理道德,这将不同于人类,但目前,人们正在将他们对人类驾驶员的道德中心投射到汽车上。
Rahwan伊:我想补充的是,人们甚至可能开始对汽车有更多的期望。我们对别人的期望有心理模型,这些心理模型包括,如果一只狗突然跳到汽车前面,而那个人没有任何时间回应,那么我们就会原谅他们,因为我们知道人类无法对这种情况下的对与错做出理性的分析计算。他们可能会冻住,他们可能会害怕,这没关系。但我认为,一旦汽车由人工智能驾驶,它可能能够更快地处理这类信息,我们可能yabo2016网上亚博A会对汽车有更多的期望,就道德标准而言。
现在我们知道了所有这些,我们应该做什么?研究人员表示,“随着我们即将赋予数百万辆汽车自动驾驶,对算法道德的认真考虑从未像现在这样紧迫……在自动驾驶汽车成为全球商品之前,我们需要做出这类决策。”虽然我能理解这种断言的基础,但无论好坏,我怀疑在实践中,在短期内,算法道德对自动驾驶汽车的开发或可用性在不久的将来会产生多大的影响。
每当我们采访自动驾驶汽车初创公司的人时,我们都会问他们关于自动驾驶道德的问题nuTonomy的Karl Iagnemma总结了大多数在该领域做研究的人目前的情况:
“到目前为止,我们还没有任何我们通常认为是道德决策的程序。我不知道还有其他组织也这么做。我认为这个话题非常重要。这是一个非常重要的问题,但我们需要一段时间才能找到一个技术解决方案。我们希望今天就能解决这个问题,但我们没有技术。
另一方面,并不是说这是一件坏事,而是我们给自动驾驶汽车带来了比人类司机更多的负担。人类司机在面对紧急情况时,他们可能不得不做出艰难的道德决定,并不是总能在这么短的时间内做出合理的道德决定。我们对自动驾驶汽车的性能要求是什么水平?答案很可能是,它的性能水平比我们对人类司机的要求更高,否则大多数人不会接受这项技术。这可能不公平,但并不一定意味着它是错的。”
在我们关于信任机器人的特别报道,诺亚·j·古道尔(Noah J. Goodall)将伊阿涅玛的思想延伸得更远一些:
“(自动驾驶汽车)必须在信息不完整的情况下,在程序员通常不会考虑的情况下,迅速做出决定,使用必须在软件中严格编码的道德规范。幸运的是,公众并不期待超人的智慧,而是对车辆行为的理性解释,并考虑到道德影响。解决方案不需要完美无缺,但它应该是经过深思熟虑和站得住脚的。”
不管自动驾驶汽车是否能被设定为所有司机(和行人)都能认同的道德体系,似乎更重要的是,自动驾驶汽车继续做它们已经被设定的事情:以一种可以理解的方式做出最大限度地提高安全性的决定。这是大多数公司目前似乎正在采取的方法,无论是出于技术上的需要,还是因为缺乏可编码的广义道德框架。基于这样一个事实90%以上的车祸是人为失误造成的在美国,我们最好还是拥有以安全为重点的自动驾驶汽车,不管它们的道德标准如何。