分享

AI企业伦理(审查)委员会建设现状、经验及启示

 天承办公室 2023-09-19

加强科技伦理治理是促进科技创新可持续发展的内在要求,也是科技创新支撑高质量发展、满足人民美好生活需要的必然要求。近年来,我国加快推进科技伦理治理体系和治理能力建设,但在伦理审查、伦理教育、科技伦理治理国际合作,以及人工智能等重点领域伦理治理方面还面临一些亟须解决的难点问题。本专栏将就上述热点、难点问题进行分析。

2022年底和2023年初,因ChatGPT的发布,生成式人工智能引起了全球学界、产业界和公众的广泛关注,人们一方面惊叹于其强大的功能,另一方面也对AI技术产生的伦理问题感到担忧。可以预见,生成式人工智能技术和应用未来会越来越多。针对这类引发伦理争议的技术研发和应用,企业应当更加重视蕴藏其中的伦理问题,发挥企业伦理(审查)委员会“看门人”的作用。本报告系统梳理了国内外大型AI企业伦理(审查)委员会建设现状、实践经验和存在的问题,并就进一步推动AI企业伦理(审查)委员会建设、提升伦理治理能力提出建议。

企业正在成为AI伦理治理的关键行动主体

AI产业发展涉及基础架构、数据、模型及用户等各要素,使得它既与技术开发中隐私泄露、模型黑箱的纯伦理风险相结合,也伴随了歧视等机会伦理风险类问题。伦理(审查)委员会作为企业内部风险把控关卡,既可以为企业进行伦理风险预判及应对,同时也能帮助行业及国家从技术端和应用端两个层面进行伦理监督,发挥伦理治理“看门人”的作用。国际社会十分重视AI企业在伦理治理方面的主体责任,在各类伦理指南、报告及会议中,鼓励企业通过建立伦理(审查)委员会等方式来发挥伦理治理的主体作用。2019年4月,欧盟发布《可信AI伦理指南》,鼓励企业在发展人工智能时设立伦理委员会并制定伦理指南,以便引导、约束AI研发者及其研发应用活动。2021年11月24日,联合国教科文组织大会第41届会议审议通过《人工智能伦理问题建议书》,在涉及伦理的政策方案中,提出会员国应鼓励私营企业考虑增设独立的人工智能伦理岗位或某种其他机制,负责监督伦理影响评估、审计和持续监测工作。2022年6月24日,第六届世界智能大会“人工智能伦理高峰论坛”在天津举办,与会专家指出,要推动科技领军企业成立内部伦理治理委员会。

我国AI企业伦理治理现状

近年来,越来越多的高科技企业开始投入人工智能技术的研发及应用,且在相关领域有所成就。伦理(审查)委员会于企业而言,是一个由内而外构建自身与政府、外部客户及消费者信任的平台。目前,部分大型AI公司已经开始伦理(审查)委员会建设的探索,但仍存在不少问题。

(一)AI企业对伦理治理重要性的认识日益深刻,但大部分企业在具体治理方面仍持观望态度

我国企业进入人工智能技术研发的时间较早,一些头部企业在人工智能技术研发及产业应用方面在世界上占有一席之地。在与美欧等国企业、客户及国际组织的业务往来中,国内企业管理者较早意识到美欧政府、消费者及公众对AI伦理治理的重视。近几年,国内头部科技企业负责人针对加强AI伦理治理的呼吁越来越多,2019年百度创始人李彦宏在全国两会上就提议加快AI伦理研究,鼓励企业在产品设计和业务运营中贯彻AI伦理原则。

实际调研也发现,很多涉及AI业务的头部企业管理者虽然已经意识到AI伦理治理的重要性,但普遍反映对设立伦理(审查)委员会的流程及相关要求并不了解,包括伦理(审查)委员会的隶属关系、成员构成、监管方式、对接部门、运行机制等。此外,对于迅速发展的AI企业而言,在内部设立伦理委员会进行项目监督审查可能会放慢技术研发和转化进度,推迟产品上市时间,这一定程度上削弱了企业设立伦理委员会的动力——只有少部分大型AI企业已建或在建伦理委员会,大部分科技企业仍然处于观望状态。

(二)AI企业在伦理(审查)委员会的具体运营方面尚处于探索阶段,制度化建设滞后

制度化建设是企业伦理委员会建设的关键一环。AI伦理治理既涉及技术研发及应用,也涉及管理,要求部门间紧密配合。当前,国内大型AI企业虽然已开始就伦理治理进行内部研究,但由于伦理评估、审查、咨询及监督需要从技术、法律、伦理、社会等不同角度充分考虑,涉及不同知识领域及跨部门业务,治理过程比较复杂,各企业在官网及媒体报道上所披露的信息很少。我国AI公司在伦理(审查)委员会的建制化方面尚处于探索期,少有公司将伦理治理纳入公司制度化体系建设中。从国际国内新闻媒体报道可以看到,我国少数AI企业在积极尝试进行制度化建设。例如,2020年初,商汤科技公司建立了人工智能伦理与治理委员会,近两年制定了《人工智能伦理与治理委员会管理章程》和《商汤集团伦理治理制度》等内部配套规章。但是,大部分已建或在建伦理委员会的国内企业并没有推动制度化建设,真正将伦理审查监督贯彻到技术设计、研发及应用中还比较难。

(三)AI企业的伦理审查透明性不高,伦理(审查)委员会的构成及职责不清晰

目前,我国AI企业在开展研发业务前,缺乏类似生命科学、医学等领域的强制审查过程,尚未构建起风险预警机制。国内大型AI公司在承担科技计划项目、发表文章方面的势头不可小觑,但在伦理审查方面,只有少数公司披露或宣传其伦理审查过程。以国内某知名人工智能公司为例,该公司有专门网页宣传伦理治理工作,设置了“负责任AI”栏目,由AI治理体系、治理实践、全球十大人工智能治理事件及国内外伦理新闻报道四部分构成。然而,在治理体系板块,公司网页虽然列出《人工智能应用准则》、人工智能道德委员会、人工智能治理研究院及信息安全委员会四个板块,但并未将各委员会的成员构成、具体职责及监督、审查规范与标准列出来,也缺乏算法、实验设计方面的伦理审查案例。

(四)国内AI企业在伦理治理规则及框架制定方面比较积极,但国际影响力较低

在AI领域,谷歌、微软、IBM等国际知名企业在各细分领域技术实力强劲,服务对象遍布全球,在服务不同国家或区域时,通过解决各类实际业务问题积累了丰富的伦理实践经验,在个人隐私及数据保护等方面更敏感,具体到伦理治理规则及框架制定等方面,所设计的规则及框架被许多政府、企业、客户及公众所接受,在原则落地方面更具实操性。我国企业也积极参与到AI伦理治理的国际原则和框架制定中,例如,作为国内人脸识别国家标准组组长单位,商汤科技正在牵头或参与一系列国际、国内相关标准制定,以规范人脸识别等视觉智能技术的开发和应用,但获得的国际关注度不如预期。

国外AI企业建设伦理(审查)委员会的经验与不足

欧盟在人工智能领域缺乏有全球影响力的AI公司,为了在AI领域占据一席之地,积极从伦理监管规则及框架制定等方面力争在该领域占据优势地位。美国的AI企业发展强劲,为了确保其企业在AI领域保持世界领先地位,美国积极在政策领域保证AI监管对于创新是友好的。作为企业,为了树立自身负责任形象及解决面临的伦理风险问题,美国的谷歌、微软、推特及IBM等大型科技公司,根据具体业务及特定场景建立起各类伦理(审查)委员会进行伦理治理。

(一)企业伦理(审查)委员会的主要职能包括审查/监督、咨询、教育培训等方面

国外AI公司伦理(审查)委员会的职能主要根据业务架构及特定场景来设置,虽然各公司业务领域、发展导向及目标有所不同,但其伦理(审查)委员会所发挥的职能相似,主要包括以下三个方面:

一是进行伦理审查和监督。在新冠疫情防控期间,IBM的AI伦理(审查)委员会参与数字健康通行证开发、部署阶段的评审工作。推特公司的元宇宙(META)团队对图像裁剪算法中的性别和种族偏见进行“深入分析和研究”,对不同种族亚群体的“主页”时间线推荐内容进行公平性评估,并针对不同国家不同政治意识形态做内容推荐分析。

二是开展伦理教育培训。IBM的AI伦理委员会敦促公司和所有员工坚守负责任AI的价值观。谷歌的伦理委员会自2021年起为新员工配套了AI原则和负责任创新培训课程,帮助其了解谷歌的伦理道德准则和可用资源,此外,通过在线互动答题来深化员工对人工智能原则的认识。

三是提供咨询服务。IBM公司的AI伦理委员会帮助业务部门了解对技术特征的预期,促进公司各部门在AI伦理领域做到相互熟悉和了解,为人工智能的设计、开发和部署工作保驾护航。

不足之处包括:AI企业主要依据业务及场景需求发挥相应职能,没有制度化规定,部分企业的具体职能发挥不充分;科技活动的伦理审查、监督及其效用评估是企业内部操作,处理过程透明性不足,利益相关者难以从外部加以监督。

(二)企业伦理(审查)委员会的隶属关系明确,人员构成背景要求多元且综合素质/能力较强

一是企业伦理(审查)委员会隶属企业,根据公司发展阶段和业务需求,有些依托内部公共关系部门存在,有些是独立部门。IBM公司的伦理委员会是公司的独立部门,公司AI治理框架的所有核心内容都由它负责,独立行使AI项目的伦理审核、教育培训及监管等职能。但是,谷歌等公司根据具体业务和场景设置了多个团队及委员会,这些伦理(审查)委员会通常隶属于业务或公共关系部门。以谷歌公司为例,它根据治理架构划分了三层伦理治理团队,在第二层审查机构和专家团队中,包括负责任创新中央团队、隐私顾问委员会、健康伦理委员会和产品审查委员会四个委员会,负责各自领域与业务相关的职能。

不足之处包括:伦理委员会隶属于企业,不管是独立部门还是依托公共关系部门,都是董事会领导下的组织,其开展审查后的决策权仍归属董事会;伦理委员会的内部成员来自业务或公共关系部门的负责人或代表,并非专职从事伦理研究,需要公司部门间相互配合,这使得伦理委员会具有部门依赖性,影响其独立治理能力。

二是伦理(审查)委员会成员构成以企业公共关系和业务部门负责人为主,另聘请一至两位外部专家。伦理(审查)委员会成员是来自企业不同部门的负责人,在领导力、判断力、决策力及个人素养等方面均有较高水准;为了确保伦理委员会判断的客观自主、无利益冲突,委员会成员构成应至少包含一名外部专家;所有成员都应具有企业目标意识。微软建立的人工智能、伦理与工程研究委员会成员主要由产品开发、研究员、法律事务、人力资源等部门负责人构成;IBM的AI伦理委员会成员由业务、科研、营销、宣传等部门的代表人组成;推特公司的机器学习伦理、透明性及责任团队由内部工程师、研究人员和数据科学家组成。

不足之处包括:伦理委员会因其职责特殊性对成员的能力/素质要求较高,在技术层面,有必要熟悉技术及其运行逻辑;在伦理层面,需要清楚技术在开发及应用中存在的伦理风险;在实践层面,可以用技术人员的语言表达伦理诉求,确保在不破坏产品功能的同时能制定降低伦理风险的策略。但现实是,当前国际国内普遍缺乏既懂AI技术,又能将伦理实践运用于具体业务及场景的复合型人才。

(三)部分企业伦理(审查)委员会的内部伦理审核采用一致同意原则

为了控制技术伦理风险,企业伦理(审查)委员会在发挥其审查/监督职能时,需要得到委员会成员所有人的一致同意。以谷歌AI原则第二层治理架构的产品审查委员会为例,它在进行交易审查时,需要下属交易审查委员会来具体操作,该分支伦理委员会由四名跨职能的高级执行成员组成,委员会所有决定的做出都必须得到这四名委员会成员的一致同意,并根据需要逐步升级。

不足之处包括:伦理(审查)委员会的审查监督工作贯穿于AI技术研发或产品开发全过程,但伦理(审查)委员会成员因自身业务与伦理审查时间及流程安排方面的冲突,以及团队集体审核的需要,不同程度延长了项目或产品技术开发、转化等环节时长,使得伦理委员会的处境比较尴尬,成为既需要但又不太受欢迎的部门。

政策建议

在AI技术研发及产品应用迅猛发展的当下,如何鼓励和推动企业通过伦理(审查)委员会的建设和发展来促进伦理从“软约束”逐步向“真监管”转化,推进全社会伦理治理效能提升,就成为政府、企业和社会公众等各利益相关方需要共同考虑的问题。基于此,我们建议如下:

(一)政府应加快建设完善科技伦理治理体系,提高AI企业伦理(审查)委员会治理效能

一是科技管理部门应与相关部门加强工作协同,深入落实《关于加强科技伦理治理的意见》要求,加快推进科技伦理审查体系建设,进一步明确企业伦理委员会的建设规范、程序和标准,为企业伦理委员会的设立和发展提供指导。二是科技管理部门和行业管理部门要进一步完善对企业伦理委员会的外部审查和监管机制,着力推动提升AI企业伦理委员会制度化建设水平和治理效能。

(二)AI行业学会/协会应积极推动AI领域国际国内伦理交流,提升AI企业的伦理认知

一是学会/协会可组织未建立伦理(审查)委员会的AI企业与已建立的行业标杆企业的高管及相关人员进行沟通,让尚未建立的企业了解机构伦理(审查)委员会的构成、职能、运行机制及作用。二是学会/协会可邀请对AI领域感兴趣的伦理研究者参与AI行业实践,让伦理研究者熟悉并了解AI技术业务和场景,并就具体业务及应用场景需求与技术人员进行深入探讨,促进伦理研究者与AI从业人员加深对各自业务的了解,培养既懂技术又懂伦理的复合型人才。三是学会/协会可组织国际国内AI伦理治理交流研讨会,就已建伦理(审查)委员会的AI企业在伦理治理方面的成功经验和失败教训进行总结,加深企业管理者对伦理(审查)委员会角色的认知。

(三)已建伦理(审查)委员会的大型AI企业在提升组织伦理治理能力的同时,为其他AI企业树立榜样、提供借鉴

一是优化企业内部伦理审查监督流程,通过将各类审核、监督程序电子化,让委员会成员能便利、即时处理各项任务。二是不断完善伦理(审查)委员会的制度化建设,企业要根据自身业务发展及变化及时调整制度,并通过将企业高层与伦理(审查)委员会成员之间的沟通固定化、常态化,让高层及时了解技术动态及蕴含的伦理风险,提前预判并应对。三是提升企业伦理治理的公信力,通过公司网页及国内外媒体渠道发布伦理委员会治理动态,展示部分技术开发及应用中所采取的伦理治理举措,让利益相关方清楚伦理(审查)委员会发挥的积极作用,让行业内其他企业可以参考借鉴。

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多