分享

「厚度」哈佛大学报告:人工智能与国家安全(一)AI影响国家安全的3个领域,5个教训与11条建议

 老三的休闲书屋 2017-12-07

【兼职】神秘岗位正在向你招手,敢来么?

「厚度」哈佛大学报告:人工智能与国家安全(一)AI影响国家安全的3个领域,5个教训与11条建议

应美国情报高级研究计划局(IARPA)的要求,哈佛大学肯尼迪政治学院贝尔弗科学与国际事务中心与2017年7月发布《人工智能与国家安全》报告,分析人工智能(AI)对美国家安全的巨大影响,为美政府AI政策提供建议。

「厚度」哈佛大学报告:人工智能与国家安全(一)AI影响国家安全的3个领域,5个教训与11条建议

本报告分为以下几个部分,我们将在接下来几天内,摘选报告部分主主体内容与大家共同分享学习。

执行摘要

介绍和项目方法

第一部分:人工智能的变革潜力

第二部分:学习以前的变革性技术案例

第三部分:关于人工智能和国家安全的建议

结论

附录:变革性国家技术的案例研究

案例研究#1:核技术

案例研究#2:航天技术

案例研究#3:互联网和网络技术

案例研究#4:生物技术

执行摘要

·研究人员已证明在过去五年里人工智能(AI)领域取得了显著的技术进展,比之前预期的要快得多。大多数的技术进展都归功于在AI机器学习子领域取得的进步。大多数的专家都认为,这种快速发展势头将继续保持,甚至会加速。

·大多数的AI研究进步都发生在私营部门和学术界。与私营部门在AI方面提供的资助相比,美国政府的资助相形见绌。

·现有的AI能力在国家安全领域有很大的潜力。例如,现有的机器学习技术能够使卫星图像分析和网络防御等劳动密集型活动实现高度自主化。

·未来的AI有可能成为与核武器、飞机、计算机和生物技术不相上下的变革性国家安全技术。这些技术中的每一种技术都使美国国家安全共同体的战略、组织、优先顺序和分配的资源发生了巨变。我们认为,未来的AI至少也会与这些技术一样有影响力。

AI的进步将通过推动三大领域的变革来影响国家安全

这三个领域是:军事优势、信息优势和经济优势。

对于军事优势来说,AI的进步将既能实现新的军事能力,又能让现有的军事能力为更广泛的军事行动者所承受。

■ 例如,市场上可买到的AI使能技术(例如远程无人机炸药包递送)可能让弱小的国家和非国家行为者获得一种远程精确打击能力。

■ 在网络领域,那些目前需要大量高技能劳动力的活动(例如“高级持续性威胁”作业)在将来可能大部分都会自动化,并且很容易通过黑市交易获得。

对于信息优势,AI将大大增强数据收集/分析和生成的能力。

■ 这将意味着,在情报活动中,我们将获得比以前更多的、有利于辨明真相的信息来源。但有说服力的谎言也变得更为容易。

■ 通过AI增强的音视频媒体伪造技术正在快速提高质量而降低成本。在将来,由AI生成的伪造品将使很多机构的信任基础受到威胁。

对于经济优势来说,我们发现AI的进步可能会引发一场新产业革命。

■ 美国前财政部长拉里·萨默斯(Larry Summers)预测,在AI和相关技术方面取得的进步将导致劳动力需求大幅下降,以至于美国“在本世纪后半叶结束时可能会有1/3的成年(2554岁)男性失业”。

■ 就像第一次工业革命那样,这将重塑全世界经济体的劳资关系。劳动力的自动化水平不断提高,可能使发达国家经历与“资源诅咒”类似的情景。

■ 另外,就像第一次工业革命那样,人口数量对于国力来说将变得不那么重要。在AI技术上有重大优势的小国家将发挥远远超过其实力的作用。

我们分析了与变革性军事技术有关的四个以前的案例

——核、航空航天、网络和生物技术——

并获得在人工智能方面“吸取的教训”

教训#1:过快的技术进步引发激进的政府政策观点。

■ 就像以前的变革性军事技术那样,AI对国家安全的影响是革命性的,而不仅仅是不同。

■ 全世界的政府都将考虑——有的还会颁布实施——特别的应对政策措施,这些措施也许就像在核武器的前几十年里所考虑过的措施那样激进。

教训#2军备竞赛有时不可避免,但可控制。

■ 在1899年,由于害怕空中轰炸,相关国家签署了一份国际条约,禁止使用装有武器的飞机,但他们很快就放弃了自我约束,于是在第一次世界大战期间爆发了空战。

■ AI在战争和间谍活动中的应用很可能像飞机一样势不可当的。因此,几乎不可能阻止不断扩大的AI军事应用规模。

■ 虽然完全禁止AI在国家安全领域中的应用是不现实的,但我们必须达到较温和的安全有效技术管理目标。

教训#3:政府必须既要促进又要限制商业活动。

■ 如果不能识别这种技术的固有两用性质,可能会付出生命的代价,就像劳斯莱斯“Nene”涡轮喷气发动机所表现出的那样。

■ 对于美国来说,拥有世界上最大最先进的数字技术行业是一种巨大优势。但政府和一些主要AI研究机构之间的关系很紧张。

■ AI政策制定者必须有效地保护这两个赞助方的利益。

教训#4政府必须制定技术安全性目标,并提供足够的资源。

■ 在上述四个案例的每一个案例中,国家安全政策制定者都在安全性和性能之间权衡,但政府更有可能对其中一些风险采取适当的应对措施。

■ 在所有的案例中,当政府建立正规的组织并要求他们提高各自技术领域的安全性、同时拨给他们所需要的资源时,安全效果会更好。

■ 这些资源不仅包括资金和材料,还包括有才能的人力资本、权威机构以及赢得官僚主义斗争的途径。

■ 美国应当考虑建立独立的正式研发组织,委派这些组织研究并促进在整个政府/商业AI投资组合中的AI安全性。

教训#5随着技术的变革,美国的国家利益也在变化

■ 生物武器的成本和复杂性降低,促使美国将其生物武器战略从咄咄逼人的开发战略改为自愿约束战略。

■ 一般地说,美国对于改变国家安全技术的成本、复杂性和进攻/防御平衡状态有着强烈的战略兴趣。

■ 就像在隐形飞机案例中看到的那样,美国有目标的投资有时能影响某个领域的进攻/防御平衡,并形成持久的技术优势。

■ 美国应当考虑如何改变AI在军事和情报用途中的技术现状。

我们采取“整体政府”框架,

AI技术领域的美国国家安全政策

提供了3个目标,并提出了11条建议

保持美国的技术领先地位

■ 建议#1国防部(DOD)应当实施以AI为焦点的军事演习,以识别潜在的破坏性军事创新。

■ 建议#2:DOD应当资助关于AI技术及其影响的多个长期战略分析项目。

■ 建议#3:DOD应当按优先次序列出能提供可持续优势及缓解重大风险的AI研发经费项目。

■ 建议#4:美国国防与情报界应当在进攻/防御类“反AI”能力上大力投资。

支持AI技术的和平利用

■ 建议#5:应当向DARPA、IARPA、海军研究局和国家科学基金会提供更多的资金,用于与AI有关的基础研究。

■ 建议#6:国防部应当发布关于“两用”AI能力的“信息邀请书”(RFI)。

■ 建议#7:应当给InQTel提供更多资源,以促进国家安全共同体和AI商业界之间的合作。

处理灾难性风险

■ 建议#8:国家安全理事会、国防部和国务院应当研究哪些是美国应设法用条约来限制的AI用途。

■ 建议#9:国防部和情报界应当创建专门的AI安全性组织。

■ 建议#10:国防高级研究项目管理局(DARPA)应当为AI系统的失效安全和性能安全技术提供研发资金。

■ 建议#11:NIST和NSA应当研究相关的技术方案,以抵制由AI实现的伪造品。

「厚度」哈佛大学报告:人工智能与国家安全(一)AI影响国家安全的3个领域,5个教训与11条建议

本报告中文译文版本将于近期成册

请您随时关注相关信息!

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多