自毁还是自保?无人车在事故发生前一秒的道德困境

无人车

 

无人车作为如今一个大热的研究领域,随着工程师不断完善算法,在不久的将来或许无人车真的要进入我们的日常生活了。在研发无人车之初,很多创业者的初衷都立志于减少因事故导致的高死亡率,但这也引发了一个关乎道德方面的讨论,就是在发生冲撞且伤亡已经不可避免的紧急情况下,无人车是该自保还是自毁?

对于这个问题,有人做出假设:当你的无人驾驶汽车在高速行进中,前方突然出现一个横过马路的小孩。如果要避开他面临的就是“自毁”撞向两边的水泥墙,乘客受伤可能性极高。如果不避让车辆一定选择“自保”撞上小孩。自毁或自保?这种情况下,无人驾驶汽车系统会做出什么选择?或者说,你希望无人车作出什么选择?

据国外媒体报道,《Science》杂志最近做了一个无人驾驶汽车道德困境的社会调查,旨在了解人们对无人驾驶汽车在事故中的行动方式的态度。

调查结果显示,受访者认为无人驾驶汽车车主应该选择最小化对他人的伤害,即使会致使自己受伤。但当问及会选择购买“车主保护优先”还是“行人保护优先”的无人驾驶汽车,受访者更倾向于购买“车主保护优先”的。

调查者之一、美国加州大学欧文分校的心理学副教授Azime Chariff认为,著名的道德悖论“电车悖论”即将无数次在现实中上演。

“电车悖论”讲的是:一辆失控的电车前方有五个无法避开的行人,片刻后电车就要碾压到他们。驾驶员可以拉一个拉杆,让电车开到另一条轨道上,但另一个电车轨道上有一个无法避开电车的人。这种状况下,驾驶员是否应该拉拉杆?

对于无人驾驶汽车来说,开发者就是这个“拉杆”的人。在无人驾驶汽车面临交通事故时,它的回避动作很可能决定乘客和行人的生死。而究竟让谁的伤害最小化,车辆显然是根据事先的系统设置行动的。

据Google自动驾驶项目公布的试乘结果,大部分的 Google 自动驾驶汽车事故都是被追尾。在这个场景下,如果把无人驾驶汽车系统设置为“伤害人数最小化”的话,无人驾驶汽车可能会为了规避后方车辆而冲上人行道。

这在很大程度上已经说明了一个事实:无人驾驶汽车的道德困境的特别之处就在于它造成的结果,很可能一开始就被我们设置的指令决定了。

去年图卢兹经济学院的 Jean-Francois Bonnefon 与同事们对无人驾驶汽车开发者做了相似的调查。不同的是,他们发现开发者希望其他人坐在“行人保护优先”的无人驾驶汽车中,而自己不会购买这样的无人驾驶汽车。

或许未来无人车会变得特别完美,但当我们把判断权移交给了计算机系统之后,道德与法律责任仍不可避免。面对不可避免的事故,自毁还是自保?这个问题依然很头疼。

抢沙发

昵称*

邮箱*

网址