分享

美国多机构联合发布!《零信任人工智能治理》

 小飞侠cawdbof0 2023-10-20 发布于北京


来源:元战略

作者:Zoie Y. Lee


2023年8月10日,美国非营利组织Accountable Tech、AI Now研究所和电子隐私信息中心(EPIC)联合发布了《零信任人工智能治理》的政策建议,旨在限制大型AI公司在监管方面的影响力。该政策建议提出“零信任人工智能治理(Zero Trust AI Governance)”框架的三项首要原则,呼吁立法者重新审视保护法,防止科技公司为牟利而去涉及明确禁止的某些AI领域。元战略摘编其重要内容,探讨未来监管人工智能的最佳方式。

AI的飞速发展、新系统的疯狂部署以及围绕AI的炒作,都让人们对AI改变社会的潜力产生了极大的兴趣。但是,我们并没有走上实现这些美好愿景的道路。AI的发展轨迹正被一些不负责任的大型科技公司间有害的竞争所左右。

随着各公司匆忙将不安全的系统推向市场,如轻而易举散布虚假信息的聊天机器人,并肆无忌惮地将它们整合到旗舰产品和服务中,这场企业争夺AI霸权地位的斗争所造成的社会成本已经在不断增加。近期的危害包括加速选举中的操纵和诈骗、加剧偏见和歧视、侵犯隐私和自主权等。从中长期来看,更多的系统性威胁迫在眉睫,如高昂的环境成本、大规模的劳动力中断,以及大型科技公司在整个数字经济领域权力的进一步巩固。

行业领袖们在公开呼吁亟需对AI进行监管的同时,也在警告灭顶之灾的威胁,同时私下游说反对有意义的问责措施,并继续发布功能越来越强大的新的AI系统。鉴于事关重大,我们不能盲目相信这些行业领袖。

事实上,通过对美国联邦政府监管AI的方法进行更深入的研究后,我们发现,这些监管方法一般通过冗长的流程来阻止行动,依赖于过于复杂且难以执行的制度,并将问责的负担强加给那些已经受到伤害的人。

如果美国联邦政府不迅速采取行动改变当前的态势,如大力执行现行法律,最终通过强有力的联邦隐私立法和反垄断改革,并颁布强有力的新AI问责措施,那么危害的范围和严重程度就会加剧。如果我们希望AI的未来能够保护公民权利、推进民主理想并改善人们的生活,我们就必须从根本上进行改变。

原则一:迅速且有力地执行现有法律


  图片   


行业领袖们采取了许多策略,在拖延问责的同时,将自己塑造成深思熟虑的形象。他们夸大了人类灭绝的长期威胁,要求美国国会成立一个新机构,并对那些会延缓行动的提案大加赞赏,所有这一切都在使AI竞争愈演愈烈。事实上,人们已经感受到了这些AI系统带来的具体危害,其发展速度不亚于AI本身。正如联邦执法机构的官员们所强调的那样,现有的法律对AI没有任何约束力。迅速且有力地执行现有法律是减轻自动化危害和阻止鲁莽部署不安全系统的非常关键的第一步。

1. 执行反歧视法。AI工具不能用于自动化非法歧视,这违反了《民权法》《投票权法》《公平住房法》《平等信用机会法》《公平信用报告法》《同工同酬法》和《美国残疾人法》等联邦法规。

2. 执行消费者保护法。美国联邦贸易委员会(FTC)在保护消费者方面拥有广泛的法定职责,他们已明确表示,将打击从自动诈骗、AI工具的虚假宣传到欺骗性广告行为和隐私滥用等一切行为。重要的是,他们已采取了新的补救措施,这些措施可以起到威慑作用,比如迫使公司删除根据不正当数据训练的算法。

3. 执行竞争法。在AI竞争中,科技巨头们已经在从事一系列反竞争行为,包括搭售和捆绑、排他性交易、限制性许可和有害的数据收购。虽然美国国会应通过适合数字时代的新反垄断法,包括在后续章节中概述的那些法律,但美国联邦贸易委员会和美国司法部(DOJ)应继续利用其全部权力来对抗这些滥用行为,并应利用其正在进行的合并指南以及美国联邦贸易委员会的商业监控规则来加强其打击不公平竞争的力度。

4. 明确美国《通信规范法案》(CDA)第230条的限制,支持原告寻求对各种AI损害的补偿。保护数字服务免于承担第三方内容责任的法律不应保护生成式AI。针对ChatGPT的诽谤案件已经开始审理,更严重的案件肯定会接踵而至。想一想一个聊天机器人劝说一名男子自杀的悲剧,或者关于提供致命配方的假设。除CDA第230条外,AI公司还成为高风险版权案件、集体隐私诉讼等案件的目标。虽然棘手的法律问题比比皆是,但政策制定者应寻求机会,在一些案件中提交“法庭之友”(amicus,亦写作为amici curiae,是指“由于与法院在审案件所涉问题具有利害关系,或者对之有个人见解,且未受到双方当事人充分代表而自愿或者受到法院邀请向法院提交书面意见的非案件当事人”)的书状和利益声明,这些案件将决定未来AI损害的责任以及开发和部署这些系统者的行为。

原则二:大胆、易于管理、明确的规则是必要的


  图片   


现在应该很清楚,自我监管将无法避免AI的损害。任何依赖于自愿遵守或以其他方式将关键环节外包给行业的监管制度都是如此。这包括主要依赖审计的复杂框架,尤其是第一方(内部)或第二方(签约供应商)的审计,而大型科技公司已经越来越多地接受了这种审计。这些方法在纸面上可能很有力,但在实践中,它们往往会进一步赋予行业领域权力,加重小企业的负担,并削弱监管者正确执行法律条文和精神的能力。

1. 禁止不可接受的AI做法。AI的某些用途从根本上不符合人权,绝不应允许。其中包括:

a.情绪识别或使用生物识别技术推断心理状态

b.预测性警务

c.远程生物识别,包括在公共场所使用面部识别技术

d.社会评分

e.全自动招聘或解雇

2. 禁止大部分个人数据的二次使用和第三方披露。美国未能通过全面的联邦隐私立法,使得建立在监控和剥削基础上的经济得以发展。从隐私角度和竞争角度来看,严格的“数据最小化原则”(限制企业收集数据以及其数据用途)是解决大型科技公司间有害竞争的最有力工具之一,因为大型科技公司在这一领域的主导地位主要归功于其庞大的数据优势。

a.禁止收集或处理所有敏感数据。正如美国两党共同制定的《美国数据隐私保护法》(ADPPA)所定义的,确定超出提供或维护个人所要求的特定产品或服务的严格范围。

b.禁止在教育、工作场所、住房和招聘中收集或处理生物特征识别数据。

c.禁止监控广告。

3. 防止大型科技公司滥用权力扭曲数字市场以及使其之间的AI竞争永久化。云基础设施供应商作为构建和运营大规模AI的关键,最易获得优势。而平台生态系统的所有者则可以利用其数据优势,在这些系统商业化的过程中攫取租金。结构化干预是防止市场恶性竞争的最佳途径,因为这些公司在AI系统准备就绪之前就急于将其商业化,而这一切都是为了保持其先发优势。

a.禁止占主导地位的云基础设施供应商拥有大规模商业AI产品或从中获益。大规模AI模型的训练和运行需要巨大的算力,而价值5000亿美元的云计算市场已被三家科技巨头占领:亚马逊、谷歌和微软。它们既是AI的领导者,又是这些AI系统所依赖的基础设施的所有者,这种双重身份本质上是反竞争行为,扭曲了市场激励机制,并使有害的AI竞争永久化。每家公司都在争夺霸主地位的同时匆忙推出不安全的AI产品。美国在制定结构化补救措施方面有着悠久的历史,这些措施将控制关键分销网络中关键基础设施的公司与依赖这些网络的业务线分开,包括铁路、银行和电信行业。

b.禁止大型科技公司在商业化AI中自我推荐、拉拢商业合作伙伴或打击竞争对手。

c.禁止大型科技公司利用企业用户的非公开数据进行不公平竞争。

原则三:在AI系统生命周期的每个阶段,科技公司都有责任证明其系统不会造成危害


  图片   


行业领袖们已经采取了一系列自愿措施,以表明对AI关键伦理原则的承诺。但他们也削减了AI伦理团队,无视内部警报,在对AI的恶性竞争时放弃了透明度,并试图将责任推卸给下游用户和民间社会。与其依赖科技公司的善意,让资源不足的执法机构或受影响的用户证明和预防危害或依赖上市后的审计,科技公司更应该证明其AI产品不会造成危害。

有用的推论:

以往是如何监管其他领域的高风险产品?

鉴于先进的AI系统具有广泛的社会影响,根据其制造商的说法,这些系统可能会在短期内造成广泛的危害,并在长期内带来生存风险,因此考虑如何监管类似的高风险产品是非常有益的。新药上市的开发和审批过程对此非常具有启发性。

制药公司每年在研发上花费数十亿美元,筛选成千上万的化合物,以确定少数有前景的候选药物进行临床前研究,其中包括美国食品药品监督管理局(FDA)批准的动物试验,以及药物成分和安全性的大量文件。有了这些研究和潜在临床试验的详细方案,制药公司就可以向FDA提交研究申请。如果获得批准,制药公司就会开始三个密集临床试验阶段中的第一个阶段,之后他们就可以提交正式申请,将药物推向市场。如果FDA决定继续推进,审查小组就会对所有研究进行评估,以确定药物对其预期用途是否安全有效。获得批准的药物大约1/10进入临床试验,随后要接受FDA的医疗器械标签、上市后监测、副作用披露等要求。此外,任何重大变更都需要补充申请FDA的批准。

图片

在药物开发过程的每个阶段,制药公司都必须遵守明确的规则和FDA的标准,进行广泛的测试以识别和考虑所有可预见的风险,并向监管机构展示他们的工作。制药公司必须向其产品的部署者(处方者)和最终用户(患者)提供有关适当用法和潜在不良反应的明确信息。制药公司要对因未能履行这些职责而造成的伤害承担责任,但不包括因处方者的疏忽或患者的滥用而造成的伤害。

这并不是在呼吁建立一个新的“AI食品药品监督管理局”,也不是为AI治理开出的一对一的处方,AI治理必须更快、更灵活,但新药上市的开发和审批过程是一个非常有用的参考。同样,大规模AI模型和自动决策系统也应遵守一套严格的部署前要求。

1. 评估和记录的具体标准必然会因AI的类型和成熟度而异。举例来说,一个旨在识别疾病早期征兆的AI工具、一个用于筛选求职者的自动化系统、一个通用的大语言模型,这些AI产品都有可能造成严重危害。因此,在部署前必须对其进行证明,这些AI产品带来风险的性质各不相同,需要进行的测试也大相径庭。

2. 尽管评估每个系统的标准各异,但必须普遍坚持一些核心的AI伦理原则。例如,最近制定的《人工智能权利法案蓝图》概述了五类核心保护措施,为使用AI提供了清晰的路线图:建立安全和有效的系统;避免算法歧视,以公平的方式使用和设计系统;保护数据隐私;系统的通知和解释要清晰、及时和可访问;设计自动系统失败时使用的替代方案、考虑因素和退出机制。这些要求是底线,而不是上限,所有AI都可以且应该遵守这些原则,尽管不同的系统遵守这些原则的情况会有所不同。

3. 应要求科技公司根据其在供应链中的角色,在开发的各个阶段积极证明其遵守法律。这应包括记录公司确定合理的可预见危害的流程,以及在可能的情况下如何减轻危害的建议。鉴于AI市场上虚假或夸大宣传的情况层出不穷,科技公司还必须证明系统能按预期(和宣传)运行。监管机构还可能要求在批准前进行额外的测试、检查、披露或修改。在获得批准后,应在联邦数据库中公布该AI系统所有的公开版本文件。

部署后的要求应包括:

1. 持续的风险监控,包括通过年度民权和数据隐私影响评估,由具有完整的应用程序编程接口(API)和数据访问权限的第三方进行独立审计,并要求为用户建立有效的投诉机制,并迅速报告已发现的任何严重风险。

2. 在用户使用AI系统时主动通知用户,告知其预期用途,并向用户提供易于获取的AI系统主要参数解释,以及任何退出机制或可用的人工替代方案。

3. 生成式AI的具体要求,包括:

a.遵守新的出处、真实性和披露标准。虽然这远不是解决生成式AI对信息和新闻生态系统造成全面危害的灵丹妙药,但建立有效、可互操作的标准来认证AI生成或操纵的媒体来源和真实性,可以增加有助于保护消费者和内容创作者的关键背景。

b.明确禁止某些不可接受的用途。例如未经同意传播深度伪造的图像;故意欺骗他人,意图阻碍其行使投票权;或冒充他人并以其假定的身份行事,意图获取利益或伤害、诈骗他人。

结语


  图片   


长期以来,我们错信了大型科技公司的自我监管,误以为技术进步就是社会进步,对不断升级的危害视而不见。在我们应对不断演变的威胁时,“零信任人工智能治理”框架是一个必要的路线修正,这个框架提供了我们所需的基线,以促进健康的创新,并确保下一代技术服务于更大的利益。

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多