分享

美国发布关于负责任地在军事上使用AI和自主的政治宣言

 小飞侠cawdbof0 2023-04-13 发布于北京


美国发布关于负责任地在军事上使用AI和自主的政治宣言

远望智库开源情报中心 忆竹 编译

美国国务院2月16日发布题为《关于负责任地军事使用人工智能(AI)和自主的政治宣言》称,随着越来越多的国家正在开发军事AI能力,这可能包括使用AI负责任的领域,并能加强国际安全。在武装冲突中使用AI必须符合适用的国际人道主义法,包括其基本原则。AI能力的军事使用需要采取问责制,包括在军事行动期间在负责任的人类指挥和控制链中的这种使用。AI军事用途的原则性方法应该包括仔细考虑风险和收益,同时还应该最大限度地减少意外偏差和事故。

美国务院近日在荷兰海牙人工智能峰会上公布了新的AI军事用途指南的两大支柱,即合理的人类判断和正式的指挥链。会上详细列出了美国和其他联署国家在军事应用中使用AI和机器学习(ML)技术时同意遵守的几项关键原则。各国应采取适当措施,确保负责任地开发、部署和使用其军事AI的能力,包括那些支持自主系统的能力。这些措施应该应用于军事AI能力的整个生命周期。美国国防部负责军备控制和国际安全的副部长邦妮·詹金斯在荷兰举行的人工智能战争会议上宣布了这一宣言。

图片

1.AI军事应用背景


    图片   

美国将这次新声明中阐述AI在军事背景下使用的道德规范、原则和实践,希望世界各地都能加入联署。该声明旨在强调美国的做法与一名高级国防官员所说的“俄罗斯和中国等国家更不透明的政策”之间的“对比”

“政治宣言的目的是促进在军事领域应用AI和自主方面的负责任的行为,围绕这个问题达成国际共识,并采取措施增加透明度,沟通,降低意外冲突和升级的风险,”

美国国务院表示,该宣言的一个关键方面是:任何联署该声明的国家都同意让人类参与任何潜在的核武器使用。该宣言还将口头上(但不是法律上)承诺联署国家在战争中开发和部署人工智能的其他规范和准则,即建立在美国防部使用的冗长的道德准则基础上。这些原则支配着如何在军队中构建、测试和运行AI程序,以确保程序按预期工作,并且人类可以控制它们。

图片

2.主要内容


    图片   

下列声明反映了联署国家认为在开发、部署和使用军事AI能力中应实施的最佳实践,包括那些启用自主系统的最佳实践:

(1)各国应采取有效步骤,如法律审查,以确保其军事AI能力仅用于符合其各自根据国际法,特别是国际人道主义法承担的义务。

(2)各国应保持对所有人行动的控制和参与,这些行动对于通报和执行有关核武器使用的主权决定至关重要。

(3)各国应确保高级官员能监督所有应用后果的军事AI能力的开发和部署,包括但不限于武器系统。。

(4)各国应该采纳、发布和实施其军事组织负责任地设计、开发、部署和使用AI能力的原则。

(5)各国应确保相关人员在开发、部署和使用军事AI能力,包括含有此类能力的武器系统时,给予适当的关注,包括适当水平的人类判断。

(6)各国应确保采取审慎的步骤,最大限度地减少军事AI能力中的意外偏差。

(7)各国应确保用可审计的方法、数据源、设计程序和文档来开发军事AI能能力。

(8)各国应确保使用或批准使用军事AI能力的人员得到培训,以便他们充分了解这些能力及其局限性,并能够根据具体情况对其使用做出判断。

(9)各国应确保军事AI能力具有明确、定义良好的用途,并且其设计和工程设计能够实现这些预期功能。

(10)各国应确保军事AI能力的安全、安保和有效性在其明确定义的用途内和整个生命周期内受到适当和严格的测试和保证。自我学习或不断更新军事AI能力也应受到监控,以确保关键的安全功能没有退化。

(11)各国应该具备设计和开发军事AI的工程能力,以便它们拥有检测和避免意外后果的能力,以及解除或停用展示意外行为的已部署系统的能力。

(12)各国还应实施其他适当的保障措施,以减轻严重失误的风险。这些安全措施可以来自于为所有军事系统设计的安全措施以及为非军事用途的AI能力设计的安全措施。

(13)各国应继续讨论如何以负责任的方式开发、部署和使用军事AI能力,以促进这些做法的有效实施,并建立参与联署的国家认为适当的其他做法。这些讨论应该包括考虑如何在军事AI能力出口的背景下实施这些实践。

这些宣言不具有法律约束力,但是构成了关于适当使用军事AI的多国共识。该宣言可以作为国际社会制定AI必要原则和实践的基础,以确保负责任地军事AI使用和自主。确保军队负责任地使用AI等新兴技术是一项共同的挑战。长期以来,专家们一直认为,负责任的AI的关键取决于在自动化系统中保留“以人为中心”的元素,以防止有害的偏见被复制到由大量潜在偏见数据提供信息的算法做出的决策中。

图片

3.人工智能系统“以人为中心”


    图片   

大约一年前,美国国家标准与技术研究所(NIST)的专家强调了一种持续的以人为中心的设计方法,以开发人工智能系统。这一理念进一步丰富了该机构新的人工智能风险管理框架。参与联署的国家将:

(1)在开发、部署或使用军事人工智能能力时,包括那些启用自主系统的能力,实施这些实践;

(2)公开描述他们对这些实践的承诺;支持其他适当的努力,以确保负责任和合法地使用这种能力;

(3)进一步动员国际社会其他成员促进这些做法,包括在其他论坛上就相关议题进行讨论,同时不影响其他论坛上正在进行的相关议题的讨论。

联合国已经在讨论在战争中使用致命自主权。但这种讨论只触及了人工智能将如何改变世界各地军队的一个非常小而具体的方面。美国政府现在看到了一个团结其他国家同意影响AI其他军事用途的规范的机会,包括数据收集、开发、测试和评估以及持续监控等内容。

国务院和五角大楼也希望吸引他们通常的合作伙伴以外的支持者。

“我们希望将这种合作扩展到更广泛的国家,并开始获得国际认可,不仅仅是北约认可,而是来自亚洲,拉丁美洲国家的认可,”这位国务院官员说。“我们希望世界各地的国家开始讨论这个问题,这样他们就会理解人工智能的发展和军事用途的影响。他们中的许多人会认为'这只是一个大国竞争的问题’,而实际上这对整个国际社会都有影响。”

虽然该宣言没有具体说明采用该宣言的国家将如何更有效地与美国军方合作,但它确实与拜登政府表达的观点一致,其中美国国家安全顾问杰克·沙利文认为拥有共同民主价值观的国家也需要围绕技术政策保持一致,以建立更强有力的联系。

美国防部高级官员称:“我们认为,我们现在有机会在某种程度上取得进展,并建立负责任行为的强有力规范。这对所有国家都有帮助,并且符合我们对国际人道主义法和战争法的承诺。中国和俄罗斯都没有公开声明他们正在实施什么程序来确保他们的军事人工智能系统按照预期安全负责地运行。”图片

综合编译自:

1.https://www./political-declaration-on-responsible-military-use-of-artificial-intelligence-and-autonomy/

2.https://www./emerging-tech/2023/02/state-department-proposes-international-principles-responsible-military-ai/383063.https://www./technology/2023/02/us-woos-other-nations-military-ai-ethics-pact/383024/


    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多