分享

和尚在“电车实验”中的选择和心理变态者一样,那么人工智能呢?

 刀友西门吹牛 2017-07-07

哈佛大学心理学家约书亚·格林(Joshua Greene)是“电车学”专家,研究“电车难题”的各种变体。那么什么是电车难题?其基本形式很简单:一列电车向五个人高速驶来,他们如果被撞就会死亡,但你可以拨动开关,使电车转入另一条轨道,那条轨道上只有一个人。你是否应该这么做?

和尚在“电车实验”中的选择和心理变态者一样,那么人工智能呢?

根据这个对道德直觉的简单实验,格林等研究人员创造了无数个变体。通过略微改变环境,电车问题可以作为对人类思维和人类群体的实证研究(但不是所有人都认同这一点)。

以人行天桥变体为例:你和另一个非常高大的人站在一座人行天桥上,桥下是电车轨道,如果你把他或她推下去,就可以阻止电车撞死那五个人。虽然两个例子里被救者的数量是一样的,但结果证明,第一个例子里选择拨动开关的人,要远远多于第二个例子里选择把人推下去的数量。

然而,在不同的人群里,这样的差异也并不总是一致的。按照格林开玩笑的说法,只有两类人可能赞成把那个人推下去:心理变态者和经济学家。

后来在他的讲话中,格林引用本科生研究员辛祥(Xin Xiang,音译)的研究,又谈到了这个问题。辛祥撰写了一篇得奖论文,题为《和尚会把那个人推下人行天桥吗?汉族人、藏族人和美国人的道德判断和惩罚倾向》

在拉萨附近,辛祥对佛教僧侣开展人行天桥实验,并把他们的回答与汉族人和美国人进行了比较。“和尚赞成把那个人推下天桥的可能性要高得多。”格林说。

和尚在“电车实验”中的选择和心理变态者一样,那么人工智能呢?

他指出,对和尚的调查结果类似于对(临床上确定的)心理变态者和大脑腹内侧前额叶受损者的调查结果。

“但我认为,和尚有很大不同。”格林说,“当他们作出那种回答时,他们说,‘当然,害人性命是可怕的事情,但如果你的目的是纯粹的,是为了救更多的人,而不是为了自己或家人,那就是合理的。’”

对于大部分而言,他们愿意拨动开关,但是却不愿意把人推下去。在格林看来,这是人类在生物进化过程中形成的一种道德系统“漏洞”。

“对于人行天桥的例子,你可能会说,把那个人推下天桥显然是错的。用人的身体来阻挡电车,这违反了人权。但对于开关的例子,你可能赞成拨动开关。”他说,“然后,我会告诉你,你回答的很大一部分在于是用手推还是按开关。你觉得那在道德上重要吗?”他接着又说道:“如果你的一位朋友在天桥上,打电话给你说,‘有火车开过来了。我能够救五个人,但会害死一个人!我该怎么办?’你是不是会问:‘这要看情况,你是用手推还是按开关?’”

格林认为,人们应该寻求的是道德一致性,不能因为决定他人死活的细节摇摆来摇摆去。

格林把他关于道德直觉的研究和当前的人工智能软件联系起来。AI软件哪怕现在没有或者以后也不会遇到这类二选一式的生死攸关问题,但是也必须具有某种道德框架。它们即使没有制定关于何时采取某种行为的具体规则,也必须用某种道德观加以训练。

和尚在“电车实验”中的选择和心理变态者一样,那么人工智能呢?

格林说,由于自动驾驶汽车技术即将实用化,讨论电车难题的人变得越来越多。自动驾驶汽车似乎确实将面临电车难题的某些变体。格林说,其中最有可能的是,这些汽车应不应该为了救更多的路人而牺牲乘客。

对于这个例子,人们的看法前后并不一致。泛泛而谈时,他们会说,汽车应该是功利的,应该救更多的人。但具体涉及到他们自己的车时,他们的看法就变了。

所有这些问题构成(仍然不完整)了一幅人类道德直觉的画像。由于训练机器人的必要性,人类的道德直觉才被迫呈现出明确具体的形态。这感觉太奇怪了。

在打造AI系统之前,格林希望我们问自己一个重要的问题:我们是否知道,人类道德直觉的哪些部分是好的,哪些部分是不好的?

翻译:于波

来源:The Atlantic

造就:剧院式的线下演讲平台,发现最有创造力的思想

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多