热线电话:13121318867

登录
首页精彩阅读自动驾驶车面对的道德困境:“出事了,撞谁?”
自动驾驶车面对的道德困境:“出事了,撞谁?”
2021-04-25
收藏
自动驾驶车面对的道德困境:“出事了,撞谁?”

CDA数据分析师 出品

编译:Mika

【导读】

虽然自动驾驶车可能比手动驾驶更安全、更方便,但也并不能完全避免事故的发生。如果遇到不可避免的事故,自动驾驶车该如何被编程来应对呢?

在本文中帕特里克·林就探讨了领略了自动驾驶车带来的道德问题。

自动驾驶中的道德难题

我们来做一个思维实验。

假定某一天,你坐在自动驾驶汽车里,在高速公路上飞驰。

这时,你发现周围全是车。

自动驾驶车面对的道德困境:“出事了,撞谁?”

突然,一个又大又沉的物体从你前方的卡车上掉下来,你的车来不及刹车来避免碰撞。

自动驾驶车面对的道德困境:“出事了,撞谁?”

问题1:因此它必须做一个决定:

A.继续往前,然后撞在这个物体上

B.迅速左转撞向一辆SUV

C.迅速右转撞向一辆摩托车

自动驾驶车面对的道德困境:“出事了,撞谁?”

你的车应该以你的安全为重,而撞向摩托车吗?

还是为了降低对他人的危险,不转弯,即使这样会撞上巨大的物体,并给你带来生命危险牺?

或是选择折中,撞向SUV,因为SUV的安全性能较高?

自动驾驶汽车应该怎么做呢?

这种情况下,如果我们掌握着方向盘,不管我们怎么做,都会被理解为瞬间的反应,而不是经过深思熟虑的决定。我们是在惊恐之下做出本能反应,并未深谋远虑或怀揣恶意。

自动驾驶车面对的道德困境:“出事了,撞谁?”

但是如果是程序员要指示这辆车,在未来的特定情况下做出某一决定,这听上去有点像蓄意谋杀。

不过话说回来,自动驾驶汽车预计可以大大减少交通事故和死亡率,因为这中间避免了人类会犯的错误,而且还有很多其他的潜在好处,比如不再拥堵的路面,汽车尾气排放的减少,以及没有了开车的浪费时间和压力。

自动驾驶车面对的道德困境:“出事了,撞谁?”

如遇事故,自动驾驶车如何编程应对

但是交通意外肯定还是会发生,当它们发生时意外的后果可能在很久以前,就已经被程序员或政策制定者设定好了。

这些决定可不好做,我们倾向于提供笼统的指导决定的原则,比如最小化伤害。但是这很快也会导致道德上模棱两可的决定。

再举个例子,假定前面的情况一致。但此时,在你的左边骑摩托车的人戴着头盔,而右边骑摩托车的人没戴头盔。

问题2:如果必须要选择,你的自动驾驶汽车应该撞哪个?

A.戴着头盔骑摩托车的人

B.没戴头盔骑摩托车的人

自动驾驶车面对的道德困境:“出事了,撞谁?”

如果说撞那个戴着头盔的人 ,因为她的存活率更高,你难道不是在惩罚更负责任的骑摩托车者吗?

反之,如果说撞那个没戴头盔的人,因为不戴头盔是不负责任的行为。但是这样你就彻底违反了,原先的“最小化伤害”的原则,自动驾驶汽车现在成了在主持公路正义了。

道德的问题还要复杂得多,两种情况下其背后的设计都是基于某种目标算法。换句话说,它系统地倾向或者歧视某一类特定目标。

而目标车辆的车主,就得承担这一算法的消极后果。虽然他们自己并没有犯任何错,这些最新的科技还引起了其他的道德困境。

问题3:如果你从以下两辆车中选择:

A.一辆在事故发生时,总是试图拯救尽可能多生命的车

B.一辆不顾一切拯救你的车

你会买哪一辆?

自动驾驶车面对的道德困境:“出事了,撞谁?”

如果汽车开始分析并考虑,车里的乘客以及他们的生存概率情况又会怎样?一个随机的决定会不会还是比以“最小化伤害”为原则事先设计的决定更好?

谁又应该做这些决定呢?

程序员?

公司?

政府?

自动驾驶车面对的道德困境:“出事了,撞谁?”

现实可能跟我们的思维实验有所出入,但是这不重要。

思想实验的目的是,对我们的道德本能进行分离和压力测试,就像物理世界的科学实验一样。

现在识别这些道德的急转弯,能帮助我们更好地掌控科技及其道德问题的未知之路,并让我们充满信心和正义地驶向勇敢、崭新的未来。

自动驾驶车面对的道德困境:“出事了,撞谁?”

数据分析咨询请扫描二维码

最新资讯
更多
客服在线
立即咨询