01 自动驾驶中的道德难题
我们来做一个思维实验。
假定某一天,你坐在自动驾驶汽车里,在高速公路上飞驰。
这时,你发现周围全是车。
突然,一个又大又沉的物体从你前方的卡车上掉下来,你的车来不及刹车来避免碰撞。
问题1:因此它必须做一个决定
- 继续往前,然后撞在这个物体上
- 迅速左转撞向一辆SUV
- 迅速右转撞向一辆摩托车
你的车应该以你的安全为重,而撞向摩托车吗?
还是为了降低对他人的危险,不转弯,即使这样会撞上巨大的物体,并给你带来生命危险牺?
或是选择折中,撞向SUV,因为SUV的安全性能较高?
自动驾驶汽车应该怎么做呢?
这种情况下,如果我们掌握着方向盘,不管我们怎么做,都会被理解为瞬间的反应,而不是经过深思熟虑的决定。我们是在惊恐之下做出本能反应,并未深谋远虑或怀揣恶意。
但是如果是程序员要指示这辆车,在未来的特定情况下做出某一决定,这听上去有点像蓄意谋杀。
不过话说回来,自动驾驶汽车预计可以大大减少交通事故和死亡率,因为这中间避免了人类会犯的错误,而且还有很多其他的潜在好处,比如不再拥堵的路面,汽车尾气排放的减少,以及没有了开车的浪费时间和压力。
02 如遇事故,自动驾驶车如何编程应对
但是交通意外肯定还是会发生,当它们发生时意外的后果可能在很久以前,就已经被程序员或政策制定者设定好了。
这些决定可不好做,我们倾向于提供笼统的指导决定的原则,比如最小化伤害。但是这很快也会导致道德上模棱两可的决定。
再举个例子,假定前面的情况一致。但此时,在你的左边骑摩托车的人戴着头盔,而右边骑摩托车的人没戴头盔。
问题2:如果必须要选择,你的自动驾驶汽车应该撞哪个?
- 戴着头盔骑摩托车的人
- 没戴头盔骑摩托车的人
如果说撞那个戴着头盔的人 ,因为她的存活率更高,你难道不是在惩罚更负责任的骑摩托车者吗?
反之,如果说撞那个没戴头盔的人,因为不戴头盔是不负责任的行为。但是这样你就彻底违反了,原先的“最小化伤害”的原则,自动驾驶汽车现在成了在主持公路正义了。
道德的问题还要复杂得多,两种情况下其背后的设计都是基于某种目标算法。换句话说,它系统地倾向或者歧视某一类特定目标。
而目标车辆的车主,就得承担这一算法的消极后果。虽然他们自己并没有犯任何错,这些最新的科技还引起了其他的道德困境。
问题3:如果你从以下两辆车中选择
- 一辆在事故发生时,总是试图拯救尽可能多生命的车
- 一辆不顾一切拯救你的车
你会买哪一辆?
如果汽车开始分析并考虑,车里的乘客以及他们的生存概率情况又会怎样?一个随机的决定会不会还是比以“最小化伤害”为原则事先设计的决定更好?
谁又应该做这些决定呢?
程序员?
公司?
政府?
现实可能跟我们的思维实验有所出入,但是这不重要。
思想实验的目的是,对我们的道德本能进行分离和压力测试,就像物理世界的科学实验一样。
现在识别这些道德的急转弯,能帮助我们更好地掌控科技及其道德问题的未知之路,并让我们充满信心和正义地驶向勇敢、崭新的未来。