分享

人工智能治理:英国的理念与逻辑

 老王abcd 2024-02-18 发布于广东

图片

文章来源: 山东大学国际问题研究院《欧洲观察》报告 总第27期

作者简介

欧盟与英国研究中心课题组:山东大学东北亚学院科研助理张安琪。
人工智能作为新一轮科技革命和产业变革的重要驱动力量,其快速发展带来一系列安全、伦理挑战。
首先是造成社会固有偏见与歧视的加剧。科研人员为机器学习算法设置参数可能受自身主观意识影响,导致算法偏见。当不具有代表性的数据被人工智能输入并学习、传播,这种数据偏见会导致机器生成不公正判断结果,放大社会偏见现象。
其次是侵犯个人隐私权。人工智能的使用涉及大量个人数据共享,这些数据有时是在未经个人同意的情况下被捕获和提取的。同时,这些行为还普遍缺乏明确法律依据与可问责性。人工智能的复杂性可能导致责任难以追溯,影响受害人的正当权益。
再次是加剧社会分裂孤立。人工智能个性化服务在改善公众生活水平的同时,也容易形成“信息茧房”,无形中限制人们接触不同层面信息。同时,很多涉及高维知识的机器运行超出大众推理能力,其结果对公众来说缺乏透明性和可解释性。而且在设计和实施人工智能过程中,微小疏忽产生的低质量结果会对社会造成极大危害。
最后是加剧国际安全威胁。人工智能在网络安全、生物技术、军事情报领域的不当使用或滥用将会带来全球范围的安全威胁。同时,缺少规制的全球技术标准竞赛将加剧发达国家与发展中国家之间技术鸿沟。    
综上,全球各国迫切需要采取有效治理措施,促使人工智能在负责任的框架下取得可靠和可控的成果,以创造社会经济效益。作为全球人工智能领域的领先者之一,近年来,英国积极制定负责任的、鼓励创新的人工智能治理措施,力图以英国的价值观塑造人工智能的全球发展。下面在解析英国人工智能发展背景的基础上,从人工智能伦理、监管、国际协作三方面具体阐释英国人工智能的治理策略。
图片

01

英国人工智能治理发展背景

2016年,面对国际人工智能强势崛起与全民公投退出欧盟的双重巨变,英国以追求全球性大国地位为目标,将包括人工智能在内的新兴技术作为国家发展优先事项。在2016—2021年期间,英国人工智能采取去中心化的、以行业为主导(sector-specific approach)的治理方式,借助现有法律框架,由特定行业监管机构治理人工智能风险。这一期间政策措施(见表1)虽然取得一定进展,但由于部门之间不一致、重复性和法律适用问题,关于是否延续行业主导治理方法的争议逐渐增多。   

 表1 2016—2021年间英国人工智能领域文件与机构
图片
自2021年起,英国为解决争议问题,制定了一套跨部门原则(cross-sectoral principles),在该原则基础上延续以行业为主导的治理方法,并在国家战略层面建立了负责任、鼓励创新的人工智能治理框架。2021年9月22日,英国政府发布《国家人工智能战略》(National AI Strategy),明确未来十年将英国打造为全球人工智能“超级大国”的战略目标,将有效治理人工智能列为实现该目标的三大核心支柱之一。
2023年8月31日,英国科学、创新及技术委员会(Science, Innovation and Technology Committee)发布《人工智能治理:中期报告》(The governance of artificial intelligence: interim report),对现有人工智能监管框架、法规和道德伦理进行了全面分析,阐释政策制定者在人工智能治理方面必须应对的12个挑战,并提出建议,强调政府必须加速建设人工智能治理制度,以在激烈的全球治理规则竞赛中维持英国的领先地位。    
为应对人工智能治理带来的多重风险,英国在道德伦理、机构监管、国际协作等三方面展开积极行动。
图片

02

道德伦理层面

英国构建伦理框架有利于应对偏见、歧视、隐私侵犯、不透明性、个人权利剥夺、社会孤立和不可靠结果等风险,营造人工智能保障生态系统,提高公众信任度。2018年6月13日,英国中央数字和数据办公室(Central Digital& Data Office,CDDO)发布《数据伦理框架》(Data Ethics Framework),指导政府和公共部门负责任地使用数据。该文件提出了伦理框架的总体原则和具体操作步骤。

基于该框架,2019年艾伦·图灵研究中心与政府数字服务局(Government Digital Service,GDS)、人工智能办公室合作制定了《了解人工智能伦理与安全:公共部门负责任地设计和实施人工智能系统的指南》(Understanding artificial intelligence ethics and safety:A guide for the responsible design and implementation of AI systems in the public sector),为部门合理使用人工智能技术提供具体指导。
《指南》将人工智能伦理定义为一套采用广泛接受的是非标准来指导人工智能技术开发和使用中的道德行为的价值观、原则和技术,提出团队开发人工智能项目需满足4个目标:合乎道德、具有公平和非歧视性、值得公众信赖、具有合理性。要使这些目标融入人工智能项目中,需通过三个步骤建立一个治理结构:一是建立SUM价值观框架(尊重个人尊严、真诚开放包容地联系、关爱所有人的福祉、保护社会价值观);二是遵循“快速通道原则”(FAST Track Principles)(公平、问责制、可持续性、透明度);三是构建“PBG框架”,即将SUM值和FAST Track原则运用到人工智能开发设计中。
该《指南》发布有助于英国公共部门合理开发使用人工智能,为英国企业在伦理道德框架下使用人工智能起到模范作用。此外,2021年12月8日,数据伦理与创新中心在伦理框架下发布全球首个《人工智能保障生态系统路线图》(AI Assurance Roadmap),通过提供可信赖的人工智能保障工具与成熟业务生态系统,为公众提供人工智能项目是否可靠的证据,进而降低风险,并提高公众对人工智能的信任度。    
图片

03

监管框架层面

人工智能监管是人工智能治理的重要组成部分。2022年7月18日,英国数字、文化、媒体和体育部(Department for Digital, Culture, Media and Sport)发布《建立有利于创新的方法来监管人工智能:英国新兴方法概述》(Establishing a pro-innovation approach to regulating AI An overview of the UK’s emerging approach)阐述英国在治理人工智能方面的国家立场,作为对《国家人工智能战略》的补充。该报告认为,对人工智能提出一个相对固定的定义不利于创新,但对人工智能定义不设限又可能会导致公众信任危机与治理混乱风险。

因此,英国选择列出人工智能的核心特征,以告知人工智能监管框架的范围,允许监管机构根据其特定领域或部门来制定和发展更详细的人工智能定义。运用该方法,英国定义人工智能的两个核心特征为:1.适应性(adaptiveness),即人工智能系统通常根据指令运行,这些指令结果并未明确按照人类意志编程,而是由人工智能自主学习给出结果。2.自主性(autonomy),即在没有人类明确指示和控制情况下,人工智能系统自主做出决策的能力。在人工智能监管框架方面,报告提出基于应用场景、支持创新和基于风险、连贯性、合比例性和适应性4种构建方法。    
2023年3月29日,《人工智能监管:促进创新的方法》(A Pro-innovation Approach to AI regulation)正式发布,旨在营造清晰连贯的人工智能监管环境,推动负责任创新,巩固英国作为人工智能全球领导者的地位。报告提出,人工智能监管原则初步会在非法定基础上发布,后期则会依据对非法定监管框架有效性监测结果决定是否引入法定义务。
英国人工智能监管的目标包含3方面:一是消除创新障碍和减少监管不确定性,来推动增长和繁荣;二是在应对风险和保护基本价值观的基础上,增加公众对人工智能的信任;三是加强英国作为人工智能全球领导者的地位。基于经济合作与发展组织(OCED)的人工智能原则,英国政府将跨部门原则调整为5方面,即安全安保和稳健性、适当的透明度和可解释性、公平性、问责制和治理、竞争和可补救性。针对监管缺乏一致性问题,除上述跨部门原则外,报告还制定了一套中央监测和评估(Central monitoring and evaluation)框架以监测、评估和反馈监管效果。
从上述文件不难看出,英国政府的治理方式极大程度上依赖于政府、监管机构、社会公众三方的合作努力。监管机构在该模式下拥有较大自主权,这要求它们具备较强的开发使用和监管治理人工智能的能力。在机构能力建设方面,政府发布了一系列关于如何在公共部门构建和使用人工智能的联合指南。首先,政府通过《了解人工智能伦理与安全:公共部门负责任地设计和实施人工智能系统的指南》构建伦理道德框架,指导部门和公共机构在合理道德范围内使用人工智能。
其次,政府数字服务局和人工智能办公室于2019年6月10日发布《了解人工智能》(Understanding artificial intelligence)、《评估人工智能是否是正确的解决方案》(Assessing if artificial intelligence is the right solution)、《规划和准备人工智能实施》(Planning and preparing for artificial intelligence implementation)、《管理您的人工智能项目》(Managing your artificial intelligence project)系列指南,旨在提高公共部门工作人员评估、规划和管理人工智能的能力。    
在协调机构方面,政府部门与公共组织通过建立多方机构,为各界沟通搭建桥梁。由四个主要监管机构组成的数字监管合作论坛为机构合作提供对话平台。人工智能委员会通过汇聚来自各行各业的专业人士,为人工智能治理提供多元化建议。由数据伦理与创新中心发起的公众对数据和人工智能态度网络(Public attitudes to data and AI)通过监测公众对人工智能的态度变化周期,评估公众信任驱动因素。英格兰银行和金融行为监管局联合举办的人工智能公私论坛通过共享信息、收集意见、讨论解决方法等方式进一步促进公共和私营部门之间对话,提升双方人工智能治理能力。    
表2 英国与AI相关多方机构(部分)图片
资料来源:GOV.UK,Bank of England    
区别于欧盟、美国、加拿大等国引入跨领域人工智能法规做法,英国采取更加务实的以行业为主导的监管方式。这种独特监管方式不依赖于单一跨领域立法,使英国能够更加灵活地管理特定部门的人工智能风险,为技术创新营造良好生态环境。但在该模式下,各监管机构面临协调与能力挑战,非法定跨部门原则的有限效力也促使英国政府必须加快立法行动。
图片

04

国际协作层面

人工智能作为一项具有高度不确定性的颠覆性技术,其快速发展所带来的风险和伦理问题需要全球各国合作治理。为此,英国除了参与双边、多边合作论坛外,还积极参与国际技术标准得制定。在国际合作方面,2016年,英国与七国集团(G7)国家发起关于人工智能原则的国际讨论,为2019年OCED人工智能原则建立奠定基础。2020年,英国作为创始成员支持启动全球人工智能伙伴关系(Global Partnership on AI,GPAI)。2023年11月1日,英国作为主办方邀请全球28个国家参与人工智能安全峰会,推动达成的世界首个人工智能安全协议——《布莱切利宣言》(Bletchley Declaration)对于全球人工智能治理具有里程碑意义。
在技术标准制定方面,英国标准协会(BSI)作为自主和智能系统伦理开放社区(OCEANIS)创始成员,协助促进全球技术标准研究协商。英国政府积极参与经合组织实施可信人工智能专家组网络(OECD’s Network of Experts Group on Implementing Trustworthy AI),提供人工智能政策建议。2022年10月,英国启动人工智能标准中心(AI standards hub),旨在组织利益相关者参与国际标准化工作,并为其提供信息。该中心通过知识共享、社区构建,将政府、企业、监管机构各界聚集在一起,有效提升了英国国际声望。    
英国是率先对人工智能进行治理的国家之一,也是目前全球人工智能治理官方政策数量仅次于美国的国家。总体来看,英国坚持在本国特色基础上构建能够在最大程度上鼓励创新的治理框架,但在国际人工智能治理博弈中,相较于英国在人工智能立法层面的行动迟缓,许多国家都已加快制定人工智能法规步伐,譬如,欧盟早已出台《人工智能法案》(AI act),达成全球首部人工智能领域的全面监管法规。这对英国实现在2030年成为全球人工智能超级大国目标将是一个巨大挑战。

编辑:李睿

责编:边宁

审核:杨延龙

山大国际观察

山东大学国际问题研究院成立于2019年,为山东大学批准成立的新型高端智库。中国社会科学院学部委员、山东大学讲席教授张蕴岭担任院长。研究院以“观察世界、服务国家”为理念,以新型交叉学科研究为导向,着重研究区域国别理论与实践问题、海洋秩序,特别是海洋命运共同体问题、国际经济发展、治理与合作问题。
“山大国际观察”微信公众号由山东大学国际问题研究院运营,以追踪国际形势发展新趋势,探究国际热点问题新动向,展现国际研究新成果为创办宗旨。公众号设院长专栏、热点聚焦、名家观察、山大国际观察、亚洲观察、欧洲观察、资讯库等版块,负责转发和梳理国际热点问题、前沿资讯和理论成果,跟踪和公布研究院的重要学术活动和研究成果。如您对此感兴趣,欢迎扫描下方二维码关注我们。

  山大国际观察

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多