分享

兰德:2040年人工智能或发动核战争

 BBSBIAN 2018-04-26

来源:全球技术地图、华语智库

2018年4月24日,兰德公司发布报告《人工智能对核战争风险的影响》,现将报告简介编译如下。





兰德公司的一份新报告表明,人工智能到2040年有可能颠覆核威慑战略的基础。


该研究认为,虽然人工智能不可能创造“末日机器”,但人工智能对核安全的危害在于它鼓励人类去冒险。


冷战期间,“相互确保摧毁”通过树立“任何袭击会招致毁灭性的报复”的平衡原则,从而维持了超级大国之间的恐怖和平,可见“相互确保摧毁”是通过抑制两国升级到核战争的动机来鼓励战略稳定。


而新的兰德报告则指出,未来几十年人工智能有可能通过削弱“相互确保摧毁”来打破核战略平衡,技术进步会使得报复性核反击力量成为目标并被摧毁的可能性大大增加。



研究人员表示,即使各国无意发起攻击,也可能会倾向于追求先发制人的能力,以此作为与竞争对手讨价还价的手段。这破坏了战略稳定,因为即使拥有这些能力的国家没有使用这些能力的意图,对手也无法对此加以确认。


“核战争与人工智能之间的联系并不新鲜,事实上,这两者之间有着错综复杂的历史,”兰德公司研究员爱德华·盖斯特(Edward Geist)说。“人工智能的早期发展,很大程度上是为了支持军事行动或考虑军事目标。”他说,这类工作的一个例子是1980年代的可生存适应性规划实验,该实验试图利用人工智能将侦察数据转化为核打击的目标。



根据该报告,人工智能在少数情况下可以通过提高情报收集和分析的准确性,提高战略的稳定性。先进的监测技术、更好的解释对手的行动都可以减少战略误判,从而减少战争的意外升级。


研究人员说,考虑到未来的技术发展,最终人工智能系统虽然存在出错的可能,但比人类出错的可能性要低,因此长期来看还是趋于稳定的。



“一些专家担心,对人工智能的依赖会导致新的灾难性错误,”兰德公司的安德鲁·洛恩(Andrew Lohn)说。“在技术成熟之前使用人工智能可能会令人承受很大压力,甚至是颠覆性的挑战。”因此在未来几十年保持战略稳定可能是极其困难的,所有的核大国都必须致力于限制核风险。

科技、人类与人们的观念如何影响未来全球的安全目前已引起了广泛关注,而兰德智库已为此组成了一支专门探讨《2040年的全球安全》课题的团队。24日晚,该团队成员在听众面前亮相,披露他们对人类未来的观察与探讨。这一课题的负责人即是兰德智库全球危机与安全中心主任帕拉斯利提(Andrew Parasiliti)。

帕拉斯利提表示,该团队所关注不是国安议题,他们的课题是跨行业、跨国界的,“专家们在构想今后20年的全球安全状况。”兰德智库的这支团队由跨学科的专家组成,他们当中既有核战略专家,又有经济学家与社会学家。兰德智库认为,只有这样一支研究团队才能更好地理解世界科技的飞速发展对人类社会安全的影响。

《2040的安全话题:人工智能、3D打印与速度带给人类的希望与危险》是《2040年全球安全》课题团队带给听众的题目:在未来的数十年内,由于新科技的兴起,如人工智能、3D打印等,会将风险带给人们与他们的国家,同时也将威胁到全球的安全。与此同时,加速的变化也对政策制定者的应变能力提出了挑战。

兰德智库的专家认为,今天的人工智能发展已到了令人吃惊的程度——机器人可具备学习与思考的能力,这会引发全球主要核大国间新一轮的武器竞赛,杀人机器人已不再是好莱坞大片的专利,智能机器人的出现或会打破现有的“核制约”,让人类做出灾难性的决策。

专家们表示,“人工智能如何影响核战的威胁” 即是兰德智库正在实施的特别研究项目,即《2040年的全球安全》中的一部份。参与这一课题研究的专家认为,自冷战时期起人们已开始担心,计算机本身的故障,或由于人类操作不当,地球上可能会发生核灾难。然而,随着科技的发展,人们今天对科技导致的核灾难的危险更现实。

兰德智库的工程师罗恩(Andrew Lohn)认为:“这绝非仅是一个电影的场景。如果我们不谨慎的话,一些看似简单的事情都会导致紧张,把人类引向危险境地。”罗恩在使用人工智能方面已取得了相当的经验,他曾使用人工智能为无人机导航、判断鲸鱼的需求,并曾使用人工智能预测NBA篮球比赛的结果。

人类一味追求快速,但人类是否能够适应得了一个更加快速的世界?3D打印给人类带来了哪些威胁等都是兰德智库《2040年的全球安全》项目团队要在今后解答的问题。

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多