分享

自动驾驶汽车的道德难题

 浅字淡墨 2021-03-27

关于人工智能的大规模商用项目,可能没有什么比自动驾驶汽车离我们更近了。由此而来的一些争议已经不容置疑的摆上了台面。

比如遇到紧急情况来不及刹车时,是选择急转弯造成乘客受伤还是选择撞向无辜的行人?如果设定为宁可让乘客受伤也不能伤害路人,这样的车你会买吗?反正我不买,祸祸谁呢?反过来如果选择把无辜路人舍出去,你觉得社会舆论会让这样的车上路吗?

再聊聊人工智能的难处。还记得阿莫西夫的机器人三定律吗?

第一定律:机器人不得伤害人类,或者因不作为而使人类受到伤害;

第二定律:除非违背第一定律,否则机器人必须服从人类的命令;

第三定律:在不违背第一及第二定律时,机器人必须保护自己。

三定律定义严密,层层递进,但依然解决不了上述的难题。

试想,把这三大定律输入驾驶汽车的人工智能,如果遇到上边说的紧急情况,人工智能要如何选择?紧急转弯就会因作为而伤害人类(乘客),不转弯会因不作为而伤害人类(无辜路人),如果我是人工智能,不如干脆死机算了,太难了。

大家不难看出,以上不过是古老的电车难题的翻版而已,只是把人换成了人工智能。但如此就会让自动驾驶汽车上不了路了吗?当然不会,有商业推动的科技进步是绝无停止甚至倒退的可能,自动驾驶的时代注定会很快到来。

那么没有绝对正确的道德算法怎么办?其实并没有想象的那么难,就像汽车刚刚诞生时的红旗法案:汽车行驶速度不得超过时速5英里,而且前边要有一个人举着红旗开道示警。我们现在会觉得这个法案非常愚蠢,因为它阻碍了人类的进步,但废除了红旗法案又的确造成了车祸的发生。

这是悖论吗?当然不是,其实人类绝大多数的进步都伴随着不同程度的副作用,但进步从未停止。从来都是在政府、民众和资本的争取和妥协中艰难的寻找那个基本公正的平衡点,并小心地维持,直到某一时刻平衡被打破。接下来继续争取、妥协直到找到下一个平衡点,莫不如此。那么,你觉得自动驾驶会例外吗?


    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多