分享

这个臭名昭著的难题,为何至今无人能解?

 醉了山人 2018-02-04

上午8点,这辆车按计划到达你的家中,带你上班。 您爬上后座,将您的电子阅读设备从您的公文包中拿出,以浏览新闻。 以前从未遇到麻烦,但今天发生了一些不寻常的事情:两个孩子在草地上嬉戏地摔跤,滚到你面前的路上。没有时间刹车,但是如果刹车,车子滑到左边,就会碰到一辆迎面而来的摩托车。

结果不是很好,但哪一个最差?

还有一些你应该知道的,这一年是2027年,这辆车没有司机。

我在乘客座位上,Amy Rimmer博士正坐在方向盘后面。Amy在屏幕上按下一个按钮,而不用再触摸任何控制,汽车就能顺利地沿着道路行驶,停在交通灯上,在信号传递之前,向左转,转过一个回旋处,通过。5分钟的旅程后,它有点儿嗡嗡声。

Amy,29岁,拥有剑桥大学博士学位,是捷豹路虎自主驾驶车的首席工程师。她负责汽车传感器看到的内容,以及汽车如何响应。她说:“无人驾驶汽车,将在十年内行驶在我们的道路上。许多技术问题仍然需要克服。但无人驾驶汽车的一个障碍,不是机械方面的,不是电子方面的,而是道德方面,这可能会延迟面世。

“手推车问题”

在汽车前面滚过的孩子所引发的困境是哲学中著名的(或臭名昭著的)“手推车问题”的演变。一列失控且刹车失灵的火车(或电车或手推车)正在一条轨道上冲下去,灾难在前面,五个人被绑在轨道上。如果你什么都不做,他们都会被杀死。但是你可以改变火车行驶方向,这样可以拯救五个人。坏消息是,那边有一个人,转车就会杀了他。你该怎么办?

这个问题已经提问给世界各地的数百万人,大多数人认为应该转移火车。

但是现在又要改变这个问题。一架失控的火车撞向五人。这一次,你站在一条俯瞰着轨道的行人天桥上,旁边是一个背着笨重的背包的男人。拯救这五个人的唯一办法就是把背包人推到下边:背包将阻挡火车的路。再次,这是一条生命与五条生命的选择,但大多数人认为背包男人不应该被杀害。

这个难题已经存在了数十年,哲学家们意见并不统一。功利主义者认为,我们应该以最大限度的提高幸福,牺牲一个人,拯救5个人的生命。

无人驾驶汽车的道德困境

小车型困境是非常不切实际的。然而,在未来,无人驾驶汽车确实有必要做出选择,哪种方式转向谁,伤害谁,还是谁冒险呢?这些问题提出了更多。我们应该把什么样的道德准备到车里?与其他车上的旁观者或乘客相比,我们应该如何评价司机的价值观?你会买一辆准备牺牲司机以挽救行人生命的汽车吗?如果是这样,你是不同的。

那么谁来做这些道德决定就是棘手的事情。政府会决定汽车如何做出选择?还是制造商?还是会是消费者?你能不能走进展厅,选择汽车的道德,就像你的颜色一样? “我想购买一辆功利主义的保时捷。”

罗恩·阿金在2004年参加机器人伦理学会议时,对这些问题感兴趣。他听取了一位代表正在讨论杀死人的最好的子弹:重而缓慢,还是小而快? 阿金觉得他不得不选择“是否加强和承担我们所创造的技术的责任”。从那时起,他致力于自主研发武器的道德准则。

有人呼吁禁止自主武器,但阿尔金则相反地认为:如果我们能够制造武器,使平民丧生的可能性降低,我们就必须这样做。他说:“我不支持战争,但是如果我们愚蠢地继续杀死自己,我认为战场上的无辜者需要得到更好的保护。”

像无人驾驶汽车一样,自主武器不是科幻小说。已经有武器在没有被人完全控制的情况下运行。如果遇到敌方的反击,导弹可以改变路线。 阿尔金的做法有时被称为“自上而下”。也就是说,他认为我们可以使用类似于“日内瓦公约”战争规则的机器人进行编程,例如禁止蓄意杀害平民。即使这是一个非常复杂的挑战:机器人还是要区分敌方战斗员拼杀的刀以及外科医生用来拯救伤病的刀。

编程可以教机器人“道德”吗?

解决这些问题的另一种方法就是所谓的“机器学习”。

苏珊·安德森是一位哲学家,安德森是计算机科学家。 除了是夫妻外,他们还是专业的合作者。他们认为,教授机器人伦理的最好办法是首先按照“避免痛苦,促进幸福”的原则进行编程,然后让机器从特定场景中学习如何将原则应用于新的情况。

采用陪伴型机器人旨在通过带食物或书,或打开灯或电视机帮助病人和老人。 陪伴机器人行业预计在未来十年将蓬勃发展。像自主武器和无人驾驶汽车一样,陪伴机器人将有选择。假设一名护士面临着拒绝服用药物的病人,患者的自主权是我们要尊重的,但是,随着时间的到来,我们需要寻求帮助,因为患者的生命可能处于危险之中。

通过应用初步原则处理一系列困境后,安德森认为,机器人将变得更加清晰,人类甚至可以从中学习。苏珊说:“我觉得这会比一个典型的人更符合道德准则。”

但是机器学习会抛出自己的问题,一个是机器可能会学习错误的课程。例如,学习语言模仿人类的机器已被证明可以导入各种偏差。男女姓名有不同的关联,机器可能会相信约翰或弗雷德比乔安娜或菲奥娜更适合成为科学家。我们需要警惕这些偏见,并试图解决他们。

另一个更根本的挑战是,如果机器通过学习过程演变,我们可能无法预测未来的行为方式,甚至不了解它如何达成其决定。这是一个令人不安的可能性,特别是如果机器人正在对我们的生活做出关键的选择。部分解决方案坚持认为,如果事情出错,我们有办法审核代码,仔细检查发生了什么。如果机器人对自己的行为负有责任,那么,在道德上和法律上对机器人的不良行为进行制裁,就必须做出谨慎判断。

该教机器人学“道德”吗?

机器人的一大优点是它们的行为一致。在类似的情况下,它们将以相同的方式运行。自主武器不会因为生气而作出不好的选择。自动驾驶不会喝醉,不会累,也不会在后座的孩子们大喊大叫。在世界各地,每年有超过一百万人在车祸中丧生,其中大多数人为失误。减少这些数字是一个巨大的奖励。

不过我们应该认为一致性是一个有趣的问题。伦敦国王学院John Tasioulas教授认为,混乱的人际关系之间是有价值的。“我们是否真的想要一个判刑制度,产生统一的答案,以应对经常涉及的价值观的激烈冲突呢?当我们消除人类决策者的个人诚信和责任时,真正意义上的东西就会丧失。”他认为。

Amy Rimmer对无人驾驶汽车的前景感到兴奋。这不仅仅是挽救了生命。无人驾驶汽车将减少拥挤和排放,并将成为“你能买到的为数不多的能给你节约时间的东西之一”。在我们的手推车难题中会做什么?碰撞两个孩子,还是面对一辆疾驰而来的摩托车?捷豹路虎还没有考虑过这样的问题,但Amy并不认为这很重要:“我不必回答这个问题就能通过驾驶考试,我也可以驾驶,那么,为什么我们要规定汽车必须在不可能的情况下对这些不太可能的情况给出答案呢?

这是一个很好的问题。如果无人驾驶汽车能够拯救生命,为什么要逼它先去解决非常罕见的情况?最终,我们还是希望我们的机器可以按照道德规范进行编程,因为不管你喜欢与否,在将来,越来越多的人类采用的决策将被委托给机器人。

当然有理由担心。我们可能不完全明白为什么机器人作出了特定的决定。我们需要确保机器人不会吸收并夸大我们的偏见。但也有一个潜在的好处,与我们相比,机器人可能会做出更好的道德决定,甚至可能使我们成为更好的人。

原文:BBC新闻

作者:David Edmonds

江平 编译

 

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多