有轨电车难题(Trolleyproblem)或称电车问题,是英国哲学家菲利帕·富特1967年首次提出的一个伦理学思想实验。该问题的大致内容是:假设你看到一辆刹车坏了的有轨电车即将撞上前方轨道上的5个人,而旁边的备用轨道上只有1个人,如果你什么都不做,5个人会被撞死,而你手边有一个按钮,按下按钮车就会驶入备用轨道只撞死1个人。你是否应该牺牲这1个人的生命而拯救另外5个人?菲利帕·富特还提出了另外一个假设,假如杀掉1个人,能够制取救活五个人的灵药,那么你是否支持杀掉这个人呢? 这个问题后来在流传中又产生了各种版本。比如有一个版本是假设你站在天桥上,看到有一台刹车损坏的电车,在轨道前方,有5个正在工作的人,他们不知道电车正向他们冲来。一个胖子正站在你身边,你发现他的巨大体形与重量正好可以挡住电车让电车出轨,不致于撞上那五个工人。你是否应该动手,把这个胖子从天桥上推落阻挡电车,以拯救那5个工人。 还有的版本把正在列车行驶轨道上的5个人设定为违规在铁路上玩耍的顽童,而另外一条岔道上是正常作业的铁路工人。你需要选择是否要撞死1名正在正常工作的工人来拯救5名在铁道上违规玩耍的孩子的性命。 这个两难选择不仅仅存在于思想实验中,在道路交通中司机有时就会直面类似的选择。比如满载乘客高速行驶的大客车遭遇违规横穿高速公路的行人时,如果司机采取紧急制动措施那么极有可能导致大客车失控车毁人亡,如果在保证大客车不至于失控的前提下采取安全制动措施那么行人可能会被直接撞死,在电光火石之间大客车司机会如何抉择呢? 现在,类似的道德考量也摆到了为自动驾驶汽车设计AI的工程师们的面前。自从工程师们开始开发自动驾驶汽车以来,人们就一直很关心如果自动驾驶汽车面临类似的不可避免地会发生致命事故的情况需要抉择应该杀死谁的道德问题时,算法或AI该如何解决。 最近的研究表明,对于汽车制造商而言,这个问题可能比人们以前认为的更难以回答,因为不同国家的人们的道德偏好差异很大。 哈佛大学和麻省理工学院的研究人员曾经开发了一款在线游戏,模拟了各种不可避免的致命车祸的情况。他们要求来自200多个国家的约4000万人在各种事故结果之间作出选择,例如是否杀死行人而不是汽车的乘客。该研究结果揭示了在不同的文化族群中人们的道德偏好存在明显差异。例如,在“南方群体”(包括大部分拉丁美洲和一些前法国殖民地)中,人们强烈倾向于优先拯救女性而非男性。“东部群体”(包括许多伊斯兰国家以及中国、日本和韩国)更倾向于优先照顾老年人。 该项研究人员最后认为这些信息应该能够对自动驾驶汽车的开发者有参考价值。然而实际情况真的如此么吗? 这项研究虽然强调了全球不同文化背景的人群在道德选择方面有不同偏好,但它也强调了(长期以来存在的人们)对人工智能的误解,以及人工智能实际上可以解决什么问题。鉴于目前在自动驾驶汽车中使用的人工智能技术,让自动驾驶的车辆做出道德决定的想法实际上是不切实际的。 目前的自动驾驶汽车的工作原理是使用特定AI(专注于完成一项特定任务的人工智能)通过训练来控制汽车以便它能正确决定驾驶中如何行驶或何时制动。这套系统设计有一系列的传感器、摄像头和距离测量激光器(激光雷达),它们可以为中央计算机提供信息。然后,计算机使用AI来分析这些输入信息并发出驾驶指令。 尽管该技术目前看起来相对简单,但在基本的驾驶任务中自动驾驶汽车的表现毫无疑问将会超越人类。然而,让自动驾驶汽车对于“电车难题”这种即使是最具道德感的人也无法在事故瞬间做出道德决断的难题作出道德判定是不现实的。如果期望能让自动驾驶AI对这种道德判断问题作出合乎道德要求的决断,那么需要对自动驾驶汽车进行复杂的编程,而那已经属于“一般人工智能”(General AI)了。 一般人工智能相当于那种使人类之所以成为人类的东西。它是交谈、欣赏音乐、发现有趣事物或做出道德判断的能力。由于人类思想和情感的复杂性,目前还不可能开发出这种一般人工智能。至于那种能够作出符合人类伦理的道德判断的自动驾驶汽车,估计几十年之内都是不可能实现的。 这项研究的另一个问题在于参与者被要求判断的许多情况都是不切实际的。在一个与“电车难题”类似的情景中,参与者被问到如果刹车失灵,汽车应该撞死谁:3名乘客(1名成年男子,1名成年女子和1名男童)或3名老年行人(2名男子和1名女子)。在回答这些问题时,参与者可以仔细考虑这些问题。但是在大多数现实生活的类似场景下,司机在事故发生时是没有时间在瞬间做出这样思考的。这意味着这种(基于文化的对比)是无效的。以目前自动驾驶汽车的AI技术来说,车辆也无法针对这种情况做出判断。目前的自动驾驶汽车具有复杂的传感能力,可以将行人与其他类似物体区分开来,例如灯柱或路标。研究者认为,自动驾驶汽车将来也许应该能够做出更复杂的区分。例如,它们可以识别出那些被认为“对社会更有价值的人”,比如医生或运动员,并选择在类似情景中优先保证他们的生命安全。事实上,让汽车做出如此高级的判断已经属于类人类智慧的一般人工智能了,目前这是不可能实现的。而另外一个更重要的问题是:这样做是否是可取的?如果未来真的具有通过对汽车进行编程来决定在事故中哪些人享有优先生命权的技术,笔者也认为这应该是被禁止的。生命的价值不应该由研究中确定的偏好来决定,无论你的研究样本量有多大。 在最基本的自动驾驶模型中,自动驾驶汽车的设计目的在于尽可能避免发生事故。如果无法避免事故的发生,则将碰撞速度降至最低。与人类一样,AI无法在不可避免的事故发生之前作出道德决定。但是自动驾驶汽车将比人类驾驶员更安全,因为它们更专注,能够更快地做出反应,并且在事故情况下将充分利用汽车的制动系统功能。 目前,自动驾驶汽车设计师面临的最大道德挑战是,确定何时有足够的证据表明通过模拟和受控的道路测试(controlled on-road testing)自动驾驶汽车的安全行为可以引入到正式的道路行驶中。 但这并不意味着它们是“道德的”,或者很快就会如此。这么说是混淆了完成驾驶任务的特定人工智能和一般人工智能的区别,而一般人工智能在我们的有生之年很可能都不会出现。 最终,自动驾驶汽车将比人类驾驶更安全。设计师将通过设计实现这一目标,尽可能避免事故,在不发生事故的地方减少损失。然而,汽车却不能做出任何甚至人类自身也无法做出的道德决定(这种想法仍然是一种毫无根据的幻想),我们不应该对它抱有希望。相反,我们应该把注意力集中在安全上,对此我们能够有足够的信心。 |
|