分享

全球人工智能治理:制约因素与发展路径 | 国政学人

 国政学人 2024-05-13 发布于天津

全球人工智能治理:制约因素与发展路径

作者:Huw Roberts,牛津互联网学院博士研究生,研究重点为中国人工智能治理举措的发展和出口;Emmie Hine,博洛尼亚大学法律、科学和技术专业博士研究生,研究重点为不同地缘政治背景下新兴技术的伦理和治理;Mariarosaria Taddeo,牛津大学数字伦理与防御技术教授,互联网研究所信息、通信和社会科学部项目主任,研究重点为数字技术的伦理和治理;Luciano Floridi,牛津大学互联网学院哲学和信息伦理学教授,互联网研究所数字伦理实验室主任,研究重点为信息和计算机伦理(数字伦理)、信息哲学和技术哲学。

来源:Huw Roberts, et al, “Global AI Governance: Barriers and Pathways Forward,” International Affairs, Vol. 100, No. 3, 2024, pp. 1275-1286.

摘要

2022年底和2023年初见证了强大的新人工智能(Artificial Intelligence, AI)技术的商业化,如Open AI的ChatGPT。在国家安全领域,人工智能、量子计算等新兴技术被誉为游戏规则的改变者,可以改变国家之间的力量平衡,塑造现有联盟,并影响全球秩序。详见平台其他编译文章。新兴技术、战略与国际秩序 | 国政学人人工智能技术有许多优势,但也带来了巨大的风险。这些风险超越了国界,并重新激发了加强全球人工智能治理的呼声,即在不存在最高权威的情况下,通过这一过程容纳超越国界的各种利益,以便采取合作行动,最大限度地提高人工智能的效益并减轻其风险。对全球人工智能治理的重视是有希望的,但雄心勃勃的治理提案通常与当前的地缘政治和制度现实不一致,这引发了对其可取性和可行性的质疑。

本文回应了日益增长的建立人工智能新国际制度的呼声,分析了加强全球人工智能治理的地缘政治和制度制约因素,并探讨了其未来发展路径。本文认为,专注于人工智能治理的国际机制基础(international regimes)正在出现,但人工智能在国家间竞争中的中心地位、功能失调的国际制度以及对政策优先事项的分歧,导致实质性合作出现问题。本文建议,将加强国际制度现有的薄弱“机制复合体”(regime complex)视为全球人工智能治理最理想和最现实的未来发展路径。强化既有制度之间的协调和各自的能力有助于实现相辅相成的政策变革,如果实施得当,可以在人工智能产生影响的各个政策领域带来催化效应,同时还能实现快速发展的技术所需的灵活治理。

全球人工智能治理计划的前景

各国和国际组织一直在积极制定国际人工智能治理倡议。例如,2019年,经合组织成员国通过了一套人工智能伦理原则,20国集团领导人随后承诺遵守经合组织的原则。2021年11月,教科文组织的193个成员国通过了一项关于人工智能伦理的建议,旨在指导签署国制定适当的法律框架。2023年,七国集团启动了广岛人工智能进程,加强人工智能治理方面的合作。金砖国家同意成立 “人工智能研究组”。欧洲委员会一直在制定一项具有法律约束力的人工智能和人权国际公约,草案文本已于2023年12月公布。

国际社会同时也在努力建立新的国际人工智能机构。由15个创始国于2020年发起的人工智能全球伙伴关系(Global Partnership on AI,GPAI)旨在支持人工智能的道德采用。贸易和技术理事会成立于2021年,旨在协调欧盟和美国政府在贸易和技术方面的活动,包括人工智能。2023年,联合国秘书长的技术特使宣布成立人工智能高级别咨询机构,其任务是推进完善国际人工智能治理的建议。英国单方面建立了人工智能安全研究所,旨在推进先进人工智能的全球知识发展。

欧洲委员会关于人工智能的公约草案更具前景,因为谈判已进入后期阶段,批准国有望将该公约转化为国内法。然而,欧洲委员会公约的批准历来缓慢,这与目前人工智能的快速发展相违背。未参与起草欧洲委员会公约的国家此前也因认为其缺乏合法性而拒绝批准,而是推动一个由联合国主导的更具代表性的进程。

私人利益相关者也积极建立人工智能治理机制。包括国际标准化组织(ISO)和国际电工委员会(IEC)在内的国际标准机构已经发布了人工智能的产品和工艺标准。行业还创建了制定国际规则的新治理制度,如“大型科技”公司、民间社会组织和学术利益相关者于2016年成立了人工智能伙伴关系(Partnership on AI,PAI),旨在制定指导意见并为公共政策提供信息。国际标准机构在制定治理倡议方面取得了进展,但其主要重心是制定支持监管一致性的标准。

这种全球人工智能治理格局可以被概念化为一个薄弱的“机制复合体”(regime complex),因为其呈现“多中心”结构,各制度之间存在一些联系,但其通常是孤立的。联合国制定法律规则的努力和技术标准机构为企业开发人工智能风险管理流程的工作之间几乎没有协调。在协调有益的其他领域,如权威人工智能原则的发展,孤立的努力也导致了不利的碎片化。

全球人工智能治理的制约因素

薄弱的人工智能机制复合体带来了治理赤字。其中的一级合作(First-order cooperation)问题源于国际无政府状态的地缘政治挑战。在无政府的情况下,各国在执行协定和识别其他国家意图方面面临不确定性。在这些条件下采取合作行动的程度因政策领域而异,并受到各国对威胁的认识、信任程度和利益一致性等因素的影响。

人工智能特别容易受到一级合作问题的影响,因为各国将其视为竞争优势的来源。作为一种两用技术,技术突破可以提供经济和安全效益。人工智能在国家间竞争中的核心地位促使各国制定政策来加强其国际地位。然而,支持国家竞争力的政策不一定不利于合作。人工智能在竞争优势中的核心地位和“军备竞赛”的叙事放大了一级合作问题,破坏了相互信任。对于一些人工智能技术(例如尖端的“基础模型”)以及特定国家之间(特别是中美两国)来说尤其如此。

提供合作框架和促进交流的国际制度可以缓解一级合作问题。然而,源于制度功能失调的二级合作问题(Second-order cooperation)加剧了建立有效的全球人工智能治理机制的困难。二战后国际制度的激增,加之运输和信息技术的突破,加深了国家间的一体化,并将许多国内政策领域转变为国际政策领域。然而,这一成功使当代多边合作变得复杂。在制度化的推动下,非殖民化导致更多的行为体参与全球治理。制度惰性阻碍了对这一新现实的适应,而日益全球化的联通性要求国际制度解决更复杂的问题。虽然出现了新的国际制度来处理新的政策问题,但这加剧了制度碎片化和职能重叠,限制了其有效性。

开发和监管人工智能的能力目前高度集中,中国、欧盟和美国之间的多边协议可能足以减轻关键风险。抛开合法性问题不谈,与卫生等多极性政策领域相比,人工智能在理论上存在很大的共识空间。然而,对于必要的政策应对措施几乎没有达成共识。欧盟推出新法规,美国采取更加自由放任的方式,而中国依赖于利用行业自律和有针对性的二级立法的混合方式。人工智能作为一个政策领域的复杂性使国际协议的达成变得复杂。对于哪些问题应该优先考虑,利益攸关方之间几乎没有共识。

碎片化的国际人工智能格局进一步加剧了合作问题,因为它允许国家和公司遵循不同的人工智能政策和标准。即使各国都参加同一个国际组织,职能重叠也会削弱任何一个制度的权威性。例如,ISO和IEC,以及电气和电子工程师协会(IEEE)和国际电信联盟(ITU)都积极参与人工智能标准的制定,这使公司能够进行“择地行诉”(forum shop)。

前进方向

解决全球人工智能治理赤字需要在当前地缘政治和制度条件下,从薄弱的机制复合体转向更强大的治理体系。目前有两种发展路径:第一,建立新的集中式全球人工智能制度;第二,加强现有制度之间的协调和各自的能力。为了评估这些选择,本文侧重于机制的政治合法性(即政治权力的可接受性)这一有效治理的基本条件,使用政治合法性的两个常见来源作为评估这些选择的标准:(1)机制使国家和其他行为体能够以互利方式协调其行为的能力;(2)存在民主决策程序。

已有的几个关于新国际人工智能机构的建议通常是基于现有制度。最集中的选择是效仿核治理,其依赖于原子能机构制定标准,进行合规监测和控制材料的获取。建立与“人工智能国际原子能机构”(IAEA for AI)相类似的强有力机构不太可能是协调国家行动的有效方式。虽然这将减轻当前的制度摩擦,但这种授权往往是脆弱的,人工智能机构由于其发展速度而面临特别的风险。更重要的是,核能和人工智能不是类似的政策问题。人工智能政策定义松散,在领域边界和什么构成伤害方面存在分歧,这意味着它不会像核能一样面临材料方面的物理瓶颈。人工智能还具有贯穿上游和下游以及跨部门的影响。人工智能领域的集中式机制将需要前所未有的权力来解决与其相关的一系列治理问题,包括进入私营部门的发展,这表明其在实践中是不可行的。

同时,也存在其它针对特定人工智能治理问题的新制度提议,包括支持科学共识的“IPCC for AI”和开展高级安全研究的“CERN for AI”。围绕少数新的人工智能特定制度的半集中式机制是一个更现实的解决方案,可以缓解一些僵化问题。然而,建立新的制度有进一步分裂治理格局的风险,从而削弱权威。建立这种类型的制度也将面临可行性挑战。对于核武器构成生存风险的共识有助于原子能机构的建立,但目前的人工智能治理并不具备这一点。

第二种选项——加强现有薄弱的人工智能机制复合体,在协调行为方面有一系列不同的优点和缺点。即使地缘政治或制度条件阻碍了其他平台的发展,但机制复合体允许在不同的平台上开展合作。这有助于国家和非国家行为体不断取得进展和建立信任,并随着时间的推移产生相辅相成的变化。其还允许根据技术变化进行适应性调整,并纳入各种治理利益攸关方。更强有力的机制复合体将涉及行为体之间的高度协调和一致性,以及支持全面治理人工智能的补充举措。从较弱的机制复合体走向较强的机制复合体可能涉及调整目标、改善信息共享、发展制度伙伴关系和建立解决冲突的具体机制,还可能涉及建立新的制度来填补治理空白,但由于上文讨论的碎片化和可行性风险,这通常应被视为完善现有制度之间的协调和各自能力的次要优先事项。

在人工智能领域建立强有力的机制复合体看起来可能有些异想天开,特别是考虑到需要协调众多利益相关者,但在国际决策的其他领域,特别是气候领域,也有先例。例如,气候治理不是一个单一的政策问题,而是涉及不同的问题,如生物多样性和碳排放。几十年来未能达成有意义的全球协议,最终导致2009年哥本哈根联合国气候变化会议毫无成果,气候治理的重点从发展集中式机制转向利用多中心秩序,鼓励地方政府和私营公司采取多层次行动,制定适合其具体职责的创新政策。

考虑到政治合法性的第二个标准,民主决策程序的存在,在像联合国这样的多边平台上建立一个新的人工智能机构将具有高度的程序合法性,这源于成员国的授权。但一个类似国际原子能机构的人工智能机构将比最初的国际原子能机构面临更大的监管风险,因为大型科技公司塑造治理的商业激励,这可能会破坏该机构的民主授权。半集中式机制将有助于缓解这些问题,但合作问题意味着通过强有力的民主程序建立多个新制度的可能性很小。

一个强有力的机制复合体在程序合法性方面存在不同的好处和坏处。许多机制复合体不太可能从联合国获得同样的普遍授权来管理人工智能。然而,在考虑国家以外的投入时,机制复合体拥有强大的民主程序,因为分权治理有助于考虑各种问题和利益攸关方。它允许在不同的治理层面提供各种各样的投入,这一点尤为重要,因为合法性问题影响了国际组织的公民接受度。

政策建议

加强现有的人工智能机制复合体,而不是建立新的集中式制度,是更可取和现实的治理选择。这条路径不是解决全球人工智能治理挑战的灵丹妙药,但它可以支持多层治理的渐进进展,从而催化有意义的变革。本文建议通过完善协调和程序合法性,加强现有的人工智能机制复合体。联合国人工智能高级别咨询机构即将开展的绘制国际人工智能生态系统并提供建议的工作是开始解决这一问题的重要机会。

经合组织可以作为权宜之计,提供与人工智能的经济和社会影响有关的专家指导,这些研究和政策思想随后在国家层面形成政策。扩大经合组织的人工智能工作可以包括经济影响排名、政策协调框架、善治指标和减轻特定风险的建议等产出。依赖经合组织的主要风险是,由于经合组织是一个主要以欧洲为基础的组织,因此被认为缺乏合法性,这导致一些国家忽视其政策产出。将更具代表性的组织(如20国集团)的具体项目委托给经合组织,可以减轻这一风险。经合组织发挥这种“治标不治本的治理”作用,利用其技术专长润滑“全球治理的车轮”,支持其他机构,这是一个强有力的先例,20国集团将国际税收政策的某些方面委托给经合组织就是一个显著的例子。尽管有理由怀疑20国集团是否愿意提供这样的授权,但20国集团以前利用经合组织的专家工作为其人工智能原则提供信息,结合中国与经合组织越来越多的接触及其对英国人工智能安全峰会的参与,表明这些障碍并非不可逾越。在关键利益攸关方已经参与的、久经考验的专家机构的基础上再接再厉,比重新开始更有可能在克服合作问题方面产生积极成果。

加强机制复合体还需要通过审查现有节点是否履行适当职能,改善当前规则制定中的民主程序。在这方面,联合国高级别咨询机构即将开展的工作提供了一个契机,来评估正确的制度是否正在开展正确的工作。为了促进更强有力的全球人工智能治理,有必要将讨论从关注应建立哪种类型的国际人工智能机构,转移到如何改善协调和民主程序的更广泛问题上。气候治理合作失败几十年后才转向更为分散的模式。未来不应该在人工智能上犯同样的错误。

译者:聂涵琳,国政学人编译员,中国人民大学国际关系学院国际政治经济学专业。

校对 | 李源

审核 | 李源

排版 | 王茜

本文为公益分享,服务于科研教学,不代表本平台观点。如有疏漏,欢迎指正。

    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多