分享

机器人会伤害人类吗?

 木子4kfvyzepq8 2017-02-13

机器人“robot”一词源自捷克语“robota”,意思是“强迫劳动”。1920年,捷克斯洛伐克作家萨佩克写了一个名为《洛桑万能机器人公司》的剧本,他把机器人的地位确定为只管埋头干活、任由人类压榨的奴隶,它们存在的价值只是服务于人类。它们没有思维能力,不能思考,只是类似人的机器,很能干,以便使人摆脱劳作。可以说robot诞生之初就确定了它们可悲的奴隶命运。但是随着人工智能的出现,当机器人有一天变得比人还要聪明时,它们还会永远服从人的指令吗?

机器人的圣经

为了避免机器人残害人类,科幻巨匠阿西莫夫曾提出了机器人三定律--

第一定律:机器人不得伤害人类,或因不作为使人类受到伤害。

第二定律:除非违背第一定律,机器人必须服从人类的命令。

第三定律:除非违背第一及第二定律,机器人必须保护自己。

但后来,阿西莫夫加入了一条新定律--第零定律:即机器人不得伤害人类整体,或因不作为使人类整体受到伤害。

在阿西莫夫以前,还没有人能够提出这么具有历史意义的机器人法则,可以说直到今天还没有人能够提出优于阿西莫夫的定律,因此说它是机器人的圣经一点也不为过。阿西莫夫本人也曾经自豪地说过:“三定律是理性人类对待机器人(或者任何别的东西)的唯一方式。”

因此人们认为,只要按照阿西莫夫的思想来设计的机器人一定是安全的,人们可以随心所欲地控制它们的行为。那时候的机器是一个确定性的系统,只需加载一条条指令,它们就按程序员所设想的那样工作。但是今天,情况发生了变化。人工智能的设计发生了很大变化,科学家们意识到,那种冯·诺伊曼式的自上而下的控制式程序不太可能实现人工智能,现今最优秀的人工智能都是基于遗传算法,它模拟的是大脑的神经网络的工作方式。人们为这样的技术付出的代价就是,人们再也不可能完全理解人工智能是如何工作的了。

三定律的缺陷

机器人三定律并不是完善的。这三条定律的缺陷、漏洞和模糊之处不可避免会导致一些奇怪的机器人行为。比方说,这三条定律连何为“人”、何为“机器人”都没有良好定义,而且,如果机器人获取的信息不完整,它们完全可以无意中打破定律;所以说机器人三定律概念不清。正是因为这种概念不清,才导致出现了各种各样危险的机器人。此外,三定律自身就存在着严重的逻辑矛盾。

第一定律说,机器人不得伤害人类,或因不作为使人类受到伤害。假如两人互相斗殴,机器人应当选择帮谁呢?加入任一方都违反第一定律前半部分,不加入却又违反第一定律后半部分。

第二定律,除非违背第一定律,机器人必须服从人类的命令。于是主人说你帮我去抢银行吧,抢银行也是一种工作,不违反第一条,那么机器人一定是去抢银行或者制作炸药。那么这种违法的事情算不算违背第一定律?

第三定律,除非违背第一及第二定律,机器人必须保护自己。欺骗算不算是违背第一及第二定律?比如机器人给出虚假答案甚至制造虚幻生活的环境,算不算违背第一及第二定律?

第零定律,阿西莫夫只是偷换了概念,把第一条的个人换成了人类,但是人类之间是由不同的利益团体构成的,如果两个集团发生武装冲突,其结果必定是任何一方都认为自己是正义的、对方是邪恶的,双方都研发自己的机器人并将其投入战争,然后开始做着伤害人类的事情。

如果机器人有意识,会忍受“三定律”吗?

从三定律来看,如果机器人没有自我意识,三定律就不存在、自我解体了。如果机器人可以有自我意识,机器人还能忍受三定律吗?更何况,你要怎么阻止一个智力超群的机器人自己把定律改掉呢?

当机器人有了自我意识,的确让人感到恐惧。如科幻电影《复仇者联盟2》中,一个由拥有自我意识的高度智能机器人带来的“奥创时代”令超级英雄们绷紧了神经。部分人坚信会像电影里一样,一旦有一天机器人“开始思考”,很可能会淘汰它们认为已经落后的人类。

那么,位于科技前沿的领袖们对“机器人是否毁灭人类”怎么看?从他们的言论中我们或许能知晓一二。

著名物理学家霍金从进化的角度解释称,机器人技术的发展速度要远超人类进化速度,机器人将加速重新设计自己,继而脱离甚至取代人类,因此“成功制造出人工智能机器人将可能成为我们历史上最后一个里程碑”。

现实版“钢铁侠”、特斯拉CEO埃隆·马斯克多次提出“机器人威胁论”,他认为人工智能可能比核弹还危险。2015年年底他还预言,“机器人屠杀人类”将在5~10年内来临。

尽管马斯克的大胆言论遭到不少反对,不过他还是得到了比尔·盖茨的响应。比尔·盖茨承认在刚开始时,人工智能机器会为我们做很多工作,但几十年后其成为超级智能后,会强大到让人类不得不关注,也就是说人类应当敬畏人工智能的崛起。

除了马斯克、盖茨,今年3月,苹果公司联合创始人史蒂夫·沃兹尼亚克在接受采访时表示,比人类思维速度更快的机器人能用更高效的方式管理公司,人类有沦为机器人“家庭宠物”的危险,他预言那一天可能发生在30年后。机器人三定律建立的基础就有着本质的错误,三定律把人想象成了奴隶主,而把机器人当成了听话的奴隶。这种基于有缺陷的伦理框架本身就有着内在的对抗性,所以才不被研究者接受。我们之所以歧视机器人是因为机器人是由机器发展而来的,它的躯体是硅做的,不是血肉之躯,所以它们就必须遵从人类的需求,不管它们有多么强大的能力也没用。虽然有不少专家公开表达对人工智能机器人的担忧,但人工智能技术还是在一片争议声中快速地发展。

相关链接:

不服从命令的机器人已经出现

为了引发人类对人工智能的深层讨论,美国加州伯克利大学机器人专家里本发明出能自己决定是否“故意伤人”的机器人,颠覆以往机器人展示的可爱助人一面。里本根据阿西莫夫的科幻小说,将此机器人命名为“第一法则”。在故事中,人类给机器人专门制定了法则,其中第一条就是“机器人不能伤害人类,或者在人类遭遇伤害时不作为”。里本说,这个造价不超过200美元的机器人,能够按照程序自己“决定”是否要刺破一个人的手指。里本坦言,机器人会失控是人们最大的担忧,而自己制造机器人的用意就是为了证明能决定伤害人类的机器人已经存在,希望借此引发对人工智能的深层讨论。

【责任编辑】蒲晖

龙学锋

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多