分享

机器人叛乱比核武器更可怕 人类将如何掌控命运?

 伟德的图书馆 2017-12-07

机器人叛乱比核武器更可怕 人类将如何掌控命运?

2017-01-13 15:10/



​史蒂芬·霍金宣今年又一次警告人类称,虽然人工智能技术会有巨大的潜在好处,能帮助人类消除战争、疾病和贫穷,但如果没有适当的防卫措施,人工智能将对人类造成难以控制的威胁。在去年,他警告称随着人工智能逐渐学习着为自己考虑,并且更加适应环境,人类正面临着不确定的未来。他警告称,机器人会以比人类快得多的速度进化,它们的最终目标将无法预测。

霍金也不是唯一持有悲观态度的人,伊隆·马斯克将人工智能的发展比作“召唤恶魔”。这位特斯拉的创始人此前就发出警告,称人工智能技术有朝一日会比核武器更加可怕。

机器人叛乱(超级智能机器),从技术发展的方向来看,是可行的,并且,从利益代理机制的脆弱性来看,机器人一旦获得接近人的智能,背叛(人的)委托甚至可以认为将难以避免。

美国路易斯维尔大学的计算机学家雅波尔斯基认为:“现在人类必须要特别防范人工智能系统进行自我进化或与其他机器人交流。”

现在,美国一批电脑工程师已经构想出一款专门对付造反机器人的“电子监狱”软件系统,其运作模式如下:人类先将这套软件安装在遥控军用机器人或人工智能装置的操作系统内,然后,该软件就会严密监视军用机器人或人工智能装置的一举一动,察看它们是否干了不正常勾当,如“偷偷联网,向其他机器人或者人类发送不正常讯息。”一旦察觉机器人图谋不轨,或人工智能装置正在自我进化,“电子监狱”就会立即切断它们与外部互联网的一切联系,并把它们的运行系统锁死,使其彻底瘫痪,这就仿佛把机器人扔进了一座虚拟的电子死牢。

不过,如果机器人或人工智能装置真的“觉醒”,那它们“会以人类难以想象的方式出牌,你不能把它们作为电脑病毒来处理。”也有人提议:一旦超级人工电脑或机器人叛乱,那切断它们的电源不就行了吗?雅波尔斯基认为:这种方法同样难以阻止人工电脑,它可能会使手段收买人类。

只有寻找新的方法,在人工智能、超级机器逐渐融合为超级智能时,人类才可能应对机器人叛乱,获得对前途命运的控制。

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多