分享

霍金最新演讲:人工智能可能是人类文明的终结者

 8k 2017-05-04

在人工智能从原始形态不断发展,并被证明非常有用的同时,我也在担忧创造一个可以等同或超越人类的事物所导致的结果:人工智能一旦脱离束缚,以不断加速的状态重新设计自身。人类由于受到漫长的生物进化的限制,无法与之竞争,将被取代。这将给我们的经济带来极大的破坏。

超人类人工智能可能带来不可估量的利益,但是如果部署不当,则可能给人类带来相反的效果。潜在的好处是巨大的,既然文明所产生的一切,都是人类智能的产物;我们无法预测我们可能取得什么成果,当这种智能是被人工智能工具放大过的。由于人工智能的巨大潜力,研究如何(从人工智能)获益并规避风险是非常重要的。现在,关于人工智能的研究正在迅速发展。这一研究可以从短期和长期来讨论。一些短期的担忧在无人驾驶方面,从民用无人机到自主驾驶汽车。比如说,在紧急情况下,一辆无人驾驶汽车不得不在小风险的大事故和大概率的小事故之间进行选择。另一个担忧在致命性智能自主武器。他们是否该被禁止?如果是,那么“自主”该如何精确定义?如果不是,任何使用不当和故障的过失应该如何问责?还有另外一些担忧,由人工智能逐渐可以解读大量监控数据引起的隐私和担忧,以及如何管理因人工智能取代工作岗位带来的经济影响。

长期担忧主要是人工智能系统失控的潜在风险,随着不遵循人类意愿行事的超级智能的崛起,那个强大的系统将威胁到人类人工智能的成功有可能是人类文明史上最大的事件

但是人工智能也有可能是人类文明史的终结,除非我们学会如何避免危险人工智能的全方位发展可能招致人类的灭亡,比如最大化使用智能性自主武器目前,九个核大国可以控制大约一万四千个核武器,它们中的任何一个都可以将城市夷为平地,放射性废物会大面积污染农田,最可怕的危害是诱发核冬天,火和烟雾会导致全球的小冰河期。这一结果使全球粮食体系崩塌,末日般动荡,很可能导致大部分人死亡。我们作为科学家,对核武器承担着特殊的责任,因为正是科学家发明了它们,并发现它们的影响比最初预想的更加可怕。欧洲议会发言人评论说,随着日常生活中越来越多的领域日益受到机器人的影响,我们需要确保机器人无论现在还是将来,都为人类而服务。在任何时候,研究和设计人员都应确保每一个机器人设计都包含有终止开关。

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多