分享

阿西莫夫的“机器人三定律”过时了吗?

 全球技术地图 2020-11-02

全球技术地图

创新丨前沿丨科普丨资讯

1950年,科幻作家艾萨克·阿西莫夫首次提出了著名的“机器人三定律”。70多年后的今天,人工智能已经悄无声息地渗透到了我们生活中的方方面面,在这种情况下,当时显得十分超前的三条定律是否仍然适用呢?

“机器人三定律”首次出现在阿西莫夫的短篇集《我,机器人》中,其具体内容如下:

机器人不能伤害人类,也不能任凭人类面临危险而袖手旁观。

机器人应服从人的一切命令,但不得违反第一定律。

机器人应保护自身的安全,但不得违反第一、第二定律。

近一个世纪以来,阿西莫夫的“三定律”似乎为人类监管机器人提供了一个绝佳的方案——美国影星威尔·史密斯甚至出演了一部同名电影。但是部分专家认为,这些定律已经完全不适用于当代的人工智能。

在阿西莫夫的时代,没有人能预料到谷歌以及Facebook的出现。在当时人们心目中,机器人应当是一派全副武装、杀气腾腾的模样,谁又能想到如今的“机器人”却纷纷改头换面,以广告推送与搜索引擎算法的形式陪伴在人类身边呢?

目前来看,以往科幻小说中机器人的角色已经被AI所取代,我们已经无需担心电影中机器人大举起义,反抗人类的情节成为现实——至少在所谓的“奇点”来临之前如此。

继人工智能是否存在“自我意识”的讨论之后,AI的监管问题顺理成章地成为了舆论的下一个风口浪尖。各国政府纷纷开始集结行业顶尖的专家学者,共同商讨未来的AI安全形势。

那么,现实世界中人类应该给AI套上怎样的“枷锁”呢? Cambridge Consultants公司近日发布了一篇名为《认识人工智能 展望发展前景》的报告,为AI的监管与治理提出了五个关键词

1

责任:任何自治系统都需要特定的人员出任负责人。这位负责人不仅对该系统承担法律责任,同时也将监督系统运行,及时提供反馈,并且在必要时对系统做出调整。

2

知情:任何与AI系统产生关联的人员(通常是非专业人士)都有权知晓一系列AI行为的来龙去脉。

3

准确:有关人员应当对任何系统错误的源头进行确认,随时监控错误动向,评估其影响,并且尽快消除错误,或者尽量减少错误的危害。

4

透明:任何自治系统的产出结果应当接受一系列测试、审查(公开或私下进行)以及批评质疑。有关人员应将审查与评估结果公诸于众,并且做出合理的解释。

5

公正:相关机构及个人应合理利用数据,尊重他人隐私,以防止AI系统被植入“偏见”,以及其它潜在问题。

你也许注意到,上述原则中并没有提及如何防止AI对人类造成“物理上的”损害,这很可能是因为目前的AI系统还无法独立做出“伤害人类”这样的决定。

目前,所有AI应用在设计之初都只能用于解决特定的问题。苹果手机的面部识别(Face ID)算法显然不会对机主的性命造成威胁,但是不道德的程序员很可能对智能手机的摄像头算法做些手脚,从而窃取用户的隐私。因此,“趋利避害,降低风险”成为了目前AI监管领域中的主流声音,AI系统的安全性能是一切的重中之重。

谷歌公司就曾经为具有学习能力的机器系统提出了一系列安全准则:

当AI系统被广泛运用到各行业之后,我们将面临以下五个问题——这些问题都是具有前瞻性的、长期的研究问题。它们看起来只是几桩小事,但是对未来的AI系统具有至关重要的作用:

避免“副作用”

我们该如何保证AI系统不会在完成目标的过程中干扰周遭的环境呢?例如,一个保洁机器人或许会故意将家中的花瓶打碎——比起将花瓶擦拭干净,这样进行“清理”似乎更加便捷。

避免AI“投机取巧”

同样以保洁机器人为例,如果我们将机器人的任务目标设定为“周围没有任何杂物”,结果机器人并没有进行清洁,反而是用布或者纸张将杂物盖住,这样一来它“看不见”杂物也就完成了任务——我们该如何避免这种投机取巧的情况发生呢?

发挥AI的“理解力”

AI系统在执行任务前往往需要得到人类的首肯。例如,保洁机器人会将无人认领的东西丢进垃圾箱,假如它每捡到一件东西就要向周围人询问一遍就太过于烦人了,我们该如何让机器人脱离人类的帮助,迅速“领悟”其中的关键呢?

安全进行探索

掌握学习能力的AI系统往往会自行尝试探索。保洁机器人尝试新的拖地路线固然是一件好事,可是它绝不能拿着湿拖把经过电器插座——我们如何保证AI系统在进行探索活动时不会闯下大祸呢?

适应不同环境

研究人员对AI进行训练的环境往往与AI的实际工作环境不尽相同。保洁机器人在工厂车间中学到的清洁方法也许不太适用于办公室环境中。我们该如何让AI识别不同的环境,并且做出相应的调整呢?

AI的未来并不是一个“高大上”的话题。不仅是谷歌与Cambridge Consultants这样的大型公司,我们每个人都与之息息相关——我们身边的每一部手机、每一台电脑中几乎都有着机器学习及AI系统的身影,某些AI系统甚至掌握了编写算法程序的能力。在这种情况下,不道德的代码一旦问世,便能够以飞快的速度进行传播,进而造成极其恶劣的影响。

AI领域中的监管及道德问题显然与电影中“杀手机器人”肆虐的场景并无太大干系(那些专门为战斗而生的自主武器除外)。相反,政府更应当关注AI对普罗大众的潜在威胁。

当然,每个人、每台机器都应该将“不杀人”的原则奉为圭臬,无论他们是否具有“智能”。

编译丨王燕处

选自丨Artificial Intelligence


    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多