分享

联合国裁军所发布《迈向负责任的国防人工智能》

 小飞侠cawdbof0 2023-06-10 发布于北京


来源:蓝海星智库
作者:王世威
2023年2月,联合国裁军研究所发布《迈向负责任的国防人工智能:绘制和比较各国采用的人工智能原则》报告(以下简称《报告》),为“迈向负责任的国防人工智能”项目(以下简称“项目”)第1阶段成果,概述了“项目”目标、实施方法,第1阶段的研究方法和初步结果,并制定了人工智能原则通用分类体系,对各国采用的人工智能原则进行比较分析,得到初步结论。
Image

图1  报告封面


一、项目概述


       


联合国裁军研究所开展的“迈向负责任的国防人工智能”项目,旨在建立对负责任的人工智能系统研究、设计、开发、部署、使用的关键共识,审查负责任的人工智能在国防领域的应用情况。“项目”有3个主要目标:一是鼓励各国在人工智能系统的开发和使用中采用负责任的工具;二是促进各国、其他关键人工智能参与主体之间的信任,提高透明度;三是达成对负责任人工智能的关键要素、实施方式的共识,为制定国际公认的治理框架提供参考。
“项目”分为2个阶段,第1阶段通过对各国、政府间组织采用的现有人工智能原则进行调研分析,制定人工智能原则通用分类体系,确定各国对负责任的人工智能基本要素的共识。第2阶段通过对利益悠关方进行访谈或组织研讨会,研究人工智能原则在国防领域的应用情况;原则运营需要建立的组织机构;存在的差距和挑战以及解决这些差距和挑战的措施。


二、第1阶段研究方法及步骤


       


为便于对各国采用的人工智能原则进行比较分析,《报告》通过梳理和分析了各国及政府间组织发布的人工智能原则,归纳形成了通用、不区分领域的人工智能原则通用分类体系,作为各种人工智能原则比较的工具,用以区分、确定各原则之间的要素差别。该阶段分为2个步骤。

步骤1:梳理和分析政府间组织采用的人工智能原则

开发通用分类体系的第1步是梳理和分析政府间组织采用的人工智能原则。在此阶段,研究人员调研梳理了11个政府间组织制定和采用的人工智能原则,其中有9个组织的原则适用于各领域,仅有2个是专门针对国防领域(北约《负责任地使用人工智能的原则》、联合国政府专家组《致命自主武器系统指导原则》);通过分析,抽象归纳了一套初步的人工智能原则要素分类表。

步骤2:梳理和分析不同国家采用的人工智能原则

开发通用分类体系的第2步是梳理和分析各国采用的人工智能原则。“项目”对193个国家进行调研,其中仅有26个国家采用人工智能原则,亚太地区有11个,拉美及加勒比地区有2个,东欧地区有1个,西欧及其他地区有12个。美国、英国有专门针对国防的人工智能原则;法国、澳大利亚、加拿大虽未采用专门针对国防的人工智能原则,但制定了其他工具(如路线图、评估框架、道德风险指南等)指导国防领域人工智能的开发和利用。
对各国采用的人工智能原则进行分析、归纳,并结合步骤1中形成的原则要素,初步形成人工智能原则要素分类表(参见下表)。该方法作为对各国采用的人工智能原则进行比较分析的基础。
序号
原则
定义
分析结果
1
人类监督、判断、控制
人工智能参与者应进行适当程度的监督、判断、控制:是否、何时、如何将决策与行动委托给人工智能系统;检测、避免意外后果的能力;系统出现非预期行为时采取措施的能力
最常用/独立原则
2
避免风险
应采取预防性方法来最小化负面影响,通过预测潜在风险,采取措施来最小化风险,确保人工智能系统实现预期目标

3
人类尊严
人工智能系统不应侵犯人类尊严

4
……
……


三、比较分析各国人工智能原则


       


为确定各国负责任人工智能原则的基本要素,根据人工智能原则要素分类表对各国采用的人工智能原则进行了比较、分析。结果显示:
1. 最常用人工智能原则是公平性、可解释性、包容性、安全性、人为监督判断控制、合法性、负责任、社会效益(见图2-a);
2. 最不常用的原则是冗余、国际合作、培训、避免伤害、公众参与、环境友好性、数据质量、人的自主、经济效益(见图2-b);
3. 通常作为独立原则、最明确采用的原则往往侧重于人工智能系统的技术特征,如公平性、可解释性、人为监督判断控制等(见图2-c);
4. 通常隐藏于独立原则的解释中、隐含采用的原则倾向于关注人工智能系统的社会影响,如信息共享、合法性、公众参与等(见图2-d)。
5. 对亚太地区、西欧与其他地区采用人工智能原则的比较结果显示,安全性、公平性、包容性是2个地区都广泛采用的原则;但亚太地区除此之外更加关注社会效益、避免风险原则,西欧和其他地区除此之外更加关注可解释性、合法性原则。
Image

图2  各国人工智能原则比较


四、结论及展望


       


研究表明,尽管全球人工智能政策发展格局仍处于初级阶段,越来越多的国家正在制定人工智能战略和政策工具,以指导人工智能合法、道德、安全、可靠、负责任地研究、设计、开发、部署、使用。目前只有少数国家、政府间组织制定专门针对国防领域的人工智能原则。《报告》预计,未来几年会有更多的国家采用指导原则、道德风险评估框架、行为准则规范等方法规划人工智能发展。无论采用何种负责任的人工智能开发工具,都必须将其付诸实践。为此,“项目”第2阶段将研究现有的专用于国防领域负责任的人工智能工具,并探索适用于国防领域的负责任的人工智能工具。


    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多