分享

OpenAI的国会听证会与人工智能的治理问题

 颐源书屋 2023-06-06 发布于北京

* “中美友好互信合作计划”是由复旦发展研究院和丰实集团共同打造的中美关系研究的学术平台

导言:此前马斯克曾发布反对人工智能通用大模型的请愿信,正在揭示伴随着生成式人工智能大爆发而呼之欲出的人工智能治理。但正如彭博资讯科技专栏作家帕米·奥尔森 (Parmy Olson)指出的那样,在某种程度上,埃隆·马斯克的请愿信来的太晚了,因为生成式人工智能已经释放了众多风险。

在巨大的国内外监管呼吁下,ChatGPT之父、OpenAI首席执行官山姆·奥特曼(Sam Altman)于当地时间2023年5月16日,在美国国会就人工智能技术的潜在风险参加听证会,并首次公开呼吁政府对生成式人工智能进行监管和干预。他的配合态度无疑将对生成式AI产业起到示范作用,对政府和社会的治理起到积极作用,预示着人工智能治理的又一个转捩点。

那么,生成式人工智能 ChatGPT到底释放了何种风险?将给人类社会带来怎样的冲击与挑战?通过简单梳理三、四月份涌现出的政府、机构和行业对于生成式人工智能的负面反馈,我们便可以初步管窥。在西方社会,人工智能带来的一般社会问题首先表现为权利与法的特殊形式,本文将之概括为权责危机,即相关的权利与义务的调整、生成与分配上存在着危机,而其本质上则是拥有不同利益关切的社会组织与群体间的关系问题,换言之,即社会关系问题。

图片

01

国会听证会中的OpenAI首席执行官

值得注意的是,5月16日,OpenAi首席执行官山姆·阿特曼(Sam Altman)出席参议院司法隐私、技术和法律小组委员会(Senate Judiciary Privacy, Technology & the Law Subcommittee)名为“人工智能监督:人工智能规则”(Oversight of A.I.: Rules for Artificial Intelligence)的听证会,这也是阿特曼首次公开亮相国会山。听证会聚焦人工智能技术增长带来的公权力监管、就业以及用户关系等挑战。

图片

图源:路透社

5月15日,阿特曼先与约60名众议员举行晚宴,并向他们闭门演示了一些ChatGPT的功能与场景。根据CNBC的报道,议员们对此评价颇高。“我认为这太棒了,”众议院民主党核心小组副主席、加利福尼亚州民主党众议员泰德·刘(Ted Lieu)说,“让国会议员全神贯注将近两个小时并不容易,为此阿特曼提供了很多信息”;密歇根州民主党众议员海莉·史蒂文斯(Haley Stevens)表示,尽管她已进入国会的第三个任期,但她“从未参加过这样的会议”,并称赞“我们整个国会的所有代表聚集在一起”参与“一个正在改变我们世界的话题”。

据《纽约时报》报道,听证会总体气氛轻松和睦,议员并未对奥特曼先生进行粗暴的盘问,因为他们感谢阿特曼先生与他们私下会面并同意出席听证会,“阿特曼(谈论危机时)的坦率与真诚吸引了华府的许多人”,新泽西州民主党人科里·布克(Cory Booker)更是多次以“山姆”直呼阿特曼。对此,CNN评论称,阿特曼在几小时内就完成了其他技术高管多年来一直试图努力达到的目标:他“迷住了国会”。


阿特曼在美国参议院听证会上表示,人工智能被用来操纵选民和针对虚假信息的可能性是他“最关心的领域”,尤其是因为“美国明年将面临选举,而这些模型正在变得更为强大。”

对于工作岗位问题,阿特曼承认人工智能技术的发展会“破坏一些工作岗位”,但也会“创造新的岗位”。在新旧岗位的更替中,阿特曼认为政府应该着手制定缓解相应冲击的措施。

阿特曼还对用户隐私问题进行了回应,他认为人工智能的用户应有选择删除(输入给AI的)个人数据的权利,而这些数据是训练AI模型的材料之一。

在5月15日晚,阿特曼在晚宴时首先提及人工智能监管的问题,阿特曼说,“我认为一旦(人工智能)这项技术出了问题,则可能就是极为严重的问题。我们希望对此直言不讳……我们希望与政府合作,防止这种情况发生”。而在听证会,阿特曼则指出,需要对人工智能进行监管,如果没有针对(可能出现的)更强大人工智能的严格监管标准,未来二十年内将会出现更多清晰的危险。阿特曼还建议,成立一个以美国为主导的人工智能监管机构,该机构有权向实体授予或吊销开发人工智能的许可,而这类许可将具有极其强大的约束力。不过,尽管阿特曼对人工智能的潜在危害进行了约三小时的讨论,他仍确认OpenAI将继续开发有关技术,他认为,OpenAI对AI模型的“迭代部署”并不是鲁莽行事,而是让机构有时间了解潜在威胁——这一战略举措将“相对薄弱”和“非常不完善”的技术引入世界,以帮助发现相关的安全风险。

在听证会上,共和党参议员乔什·霍利(Josh Hawley)表示,人工智能可能具有革命性,但也将此比作“原子弹”的发明。民主党参议员、委员会技术小组主席理查德·布卢门撒尔(Richard Blumenthal)则称,人工智能主导的未来“不一定是我们想要的未来”。参议员理查德·布卢门撒尔(Richard Blumenthal)表示,此次听证会是旨在更多地了解人工智能的潜在利弊并最终为其“制定规则”的一系列听证会中的第一次。

不过阿特曼也面临批评。华盛顿大学计算机语言学教授艾米莉·班德(Emily Bender)批评阿特曼与众议员们在晚宴上的表现,“在参加旨在告知该行业如何受到监管的听证会之前,作为受监管约束的行业公司之一,其首席执行官向监管机构进行了一场魔术表演,这似乎非常糟糕”。班德补充说,“政客与记者一样,必须抵制被打动的冲动”。政策研究中心AI Now Institute常务董事莎拉·迈尔斯·韦斯特(Sarah Myers West)则称,阿特曼的法规建议不够深入,还应该包括限制人工智能在警务中的使用方式以及在生物识别数据等领域的使用。她指出,阿特曼没有表现出任何减缓ChatGPT工具开发的迹象。West女士评论称:“看到人们对危害的担忧态度是如此具有讽刺意味,(而正是)这些人正在迅速将造成这些危害的系统投入商业使用。”

02

ChatGPT的社会冲击与权责危机

生成式人工智能对的社会冲击在首当其冲的西方世界中首先表现为对基本人权及其引申出的诸多权利构成的冲击,进而对社会稳定与可持续发展构成的威胁。具体来说,其可能对社会与公众的安全、所有权与生存发展,以及相关的社会公共治理造成冲击。

(一)安全问题

生成式人工智能可能给人身、财产和隐私与信息安全带来威胁,从而威胁社会的普遍安全。

3月21日,纽约大学心理学与神经科学教授加里·马库斯(Gary Marcus)就对ChatGPT的生成产品表示了担忧,认为由于大型语言模型(Large language model,简称LLM)的自身缺陷,可能会增加错误信息,从而影响社会上流通的信息的真实性,影响政治、经济与社会的安全与稳定。ICO监管风险执行董事Stephen Almond也就大型语言模型对数据安全构成的风险发出了警告。

六天后,3月27日,欧盟警方欧洲刑警组织(European Union police force,简称Europol)就曾发出警告,指出ChatGPT可能被不法分子用于网络钓鱼、传播虚假信息和网络犯罪,从而对民众的人身、财产和信息安全造成负面影响。

仅仅三天后,美国AI和数字政策中心(CAIDP)向美国联邦贸易委员会(FTC)提起诉讼,指出AI文本生成工具“存在偏见、具有欺骗性,并且对公共安全构成风险(biased, deceptive, and a risk to privacy and public safety)”,要求政府调查OpenAI是否违反了消费者保护规则,并对生成式人工智能的发展实施更为严格的监管。

紧随其后,在3月31日和4月5日,意大利数据保护监管机构与英国数据监管机构分别对ChatGPT于3月20日发生的数据泄露事件开展调查、监管与处罚。前者认为人工智能在训练算法时大规模收集和存储个人数据的行为缺少法律依据,并指出ChatGPT在实际运行中可能违反数据保护规则。而后者则强调现有数据保护法律体系对生成式人工智能产品在数据隐私保护义务方面的强制约束力。

这些新闻也揭示了生成式人工智能在造谣传谣、隐私泄露、被用于违法犯罪活动等问题上应该承担的义务。

(二)所有权问题

私有制与所有权是现代社会的普遍制度与法律安排,涉及到人对自己的财产占有、使用、收益和处分等权利。在生成式人工智能方面,所有权体系面临的冲击主要是以版权为重要表现的知识产权及其收益权。

3月7日,美国波士顿联邦法院在初创公司Neural Magic诉Meta公司侵犯其人工智能产权案中判定Meta公司败诉。美国地区法官丹尼斯·卡斯珀(Dennis Kasper)表示,Neural Magic于2020年起诉Meta,指控其窃取自己的人工智能算法。

可以想象,伴随着生成式人工智能军备竞赛的无序扩张,各个科技巨头间的恶性竞争很可能引发对初创科技企业的人工智能相关技术产权的吞并和侵夺,从而对现有知识产权保护体系构成冲击与调整。

除了技术产权,文艺作品的版权同样遭受到挑战。4月2日,澳大利亚新闻集团首席执行官Michael Miller表示,如果允许ChatGPT这类的人工智能产品利用他人的原创内容谋利而不支付报酬,内容创作行业将遭受毁灭性的打击。他指出,生成式人工智能的训练和产品生成,需要以包括内容创作行业从业者的图文作品在内的数据集与信息库为基础。然而,在这一过程中,人工智能应用程序却没有为其运用的新闻和内容付费。因此,他要求政府应制定相关法律,保障内容创作者的权益。

这揭示了对生成式人工智能产品运行所需的信息与数据的所有权识别与认证问题,以及由生成式人工智能生成的图文产品的版权归属与分配问题。

(三)生存发展权问题

生成式人工智能对生存发展权带来的最引人注目的冲击,就是对就业与工作权利,造成的挑战。这是生成式AI发展带来的系统性的负外部性。

根据Open AI自己发布的研究报告《GPT就是GPT:大型语言模型对劳动力市场潜在影响初探》(《GPTs are GPTs: An early look at the labor market impact potential of large language models》)显示,对约80%的美国劳动者而言,其10%的工作任务会被生成式人工智能的大语言模型影响,而对另外约19%的劳动者而言,其至少50%的工作会受到影响。其中,编程和写作类技巧占主导的工作将主要受到波及。

图片

将会受到生成式AI影响的职业 图源:OpenAI

根据资本的或所谓“效率”的逻辑,更高的生产效率意味着生产相同单位产品可以投入更少的劳动,这意味着一部分职业的从业者可能在享受人工智能带来的便利的同时,也会看到高悬在头顶上的“失业”的“达摩克里斯之剑”。

早在3月份,高盛的约瑟夫·布里格斯(Joseph Briggs)和德维什·科德纳尼(Devesh Kodnani)便撰写的报告称,像chatGPT这样的生成式人工智能系统可能会全球3亿个全职工作岗位,尤其是白领工作。其中,大约三分之二的工作将面临某种程度的自动化,而四分之一的工作可能被人工智能取代。高盛的报告强调美国的法律工作者与行政人员尤其会受到生成式AI的冲击。而早些时候,普林斯顿大学(Princeton University)、宾夕法尼亚大学(University of Pennsylvania)和纽约大学(new York University)的研究人员进行的一项评估也表示,法律服务行业最有可能受到chatGPT的影响。

Insider 在与包括麦肯锡全球研究所合伙人 Anu Madgavkar、高盛研究者 Manav Raj和毕马威合伙人迪伦·罗伯茨 (Dylan Roberts) 在内的专家们讨论研究的基础上,给出了一份被人工智能取代风险最高的工作清单,其中包括:

● 技术工作(编码员、计算机程序员、软件工程师、数据分析师)

● 媒体工作(广告、内容创作、技术写作、新闻)

● 法律行业工作(律师助理、法律助理)

● 市场研究分析师

● 教师

● 财务职位(财务分析师、个人财务顾问)

● 贸易商

● 平面设计师

● 会计师

● 客户服务代理

这些担忧或许是人工智能发展对就业市场带来系统性冲击,倒逼劳动力群体转型或升级的前奏。一旦冲击发生,相关行业从业者的就业、生存与发展无疑会成为社会的重大问题。届时,整个社会的结构与社会治理体系都需要进行系统性的调整以应对。

(四)公开透明问题

而科技巨头对人工智能开发的高度垄断性与封闭性则可能给普通民众对人工智能工具的知情权、可使用性与其红利的可及性(accessibility)带来影响。这是制度性的负外部性。

一方面,民众无法获得人工智能发展的相关信息可能会阻碍他们对相关领域公共治理的参与。另一方面,垄断技术的科技巨头可能会使得普通民众丧失议价权,从而限制一般社会大众对于这种前沿生产工具的使用,以及对其红利的享有。

正如4月19日42个德国工会与协会组织就人工智能治理向政府请愿时提到的那样,政府应该制定规则,明确责任与问责制度,监管人工智能基础模型供应商,以便在整个产品周期中规范人工智能的研发与生产。而意大利数据保护局也对ChatGPT提出了数据管理的透明度要求。

参考文献

https://www./chatgpt-jobs-at-risk-replacement-artificial-intelligence-ai-labor-trends-2023-02#tech-jobs-coders-computer-programmers-software-engineers-data-analysts-1

https://www./generative-ai-chatpgt-300-million-full-time-jobs-goldman-sachs-2023-3

https:///research/gpts-are-gpts

https:///news/elon-musk-and-tech-execs-call-for-pause-on-ai-development

https:///news/elon-musk-led-petition-to-halt-ai-development-divides-tech-community

https://www./technology/2023/04/09/ai-safety-openai/

https:///article/artificial-intelligence-chatgpt-risks-petition-elon-musk-steve-wozniak-534f0298d6304687ed080a5119a69962

https://www./opinion/articles/2023-03-30/elon-musk-wants-to-pause-ai-progress-with-chatgpt-it-s-too-late-for-that?srnd=technology-vp&leadSource=uverify%20wall

https://www.jiemian.com/article/8893975.html

https:///publication/gpt-4-technical-report

https://www.thepaper.cn/newsDetail_forward_22522162

https://mingukkang./GigaGAN/

https://www./index/introducing-claude

https://ui.adsabs./abs/2023arXiv230311717Z/abstract

https://ui.adsabs./abs/2022arXiv220613353C/abstract

https:///articles/chatgpt-is-the-iphone-moment-of-ai-nvidia-ceo-says/

https:///articles/chatgpt-is-the-iphone-moment-of-ai-nvidia-ceo-says/

https://www./technology/venture-capitalists-race-land-next-ai-deal-big-techs-turf-2023-03-24/

https://cloud.tencent.com/developer/news/1045399

https://mp.weixin.qq.com/s/FXnD4onCIBQLM5XyWbQzUQ

https://mp.weixin.qq.com/s/3425N1dtb9GXSKCFylOsnQ

https://mp.weixin.qq.com/s/7QBFApCUl0Jl72pYBlDM1w

https://mp.weixin.qq.com/s/xZh7YPdi19w1XwJEYIW6DA

https://mp.weixin.qq.com/s/efBNTNrhUSaFptuhLFSzeg

https://mp.weixin.qq.com/s/9KIFVYcm0S-Ejofu6NCRHw

https://mp.weixin.qq.com/s/cuq1xSCaRNONic1xPnsVCw

https://mp.weixin.qq.com/s/cg_k8FLwHYuGmktQy_kZ2w

https://mp.weixin.qq.com/s/bzGjzXdIAjmM3H5RKwml_Q

https://mp.weixin.qq.com/s/y7k7CXkcK3bdsvCyLId74g

https://twitter.com/bcmerchant/status/1641553523849728000?s=20

https://www./technology/2023/04/09/ai-safety-openai/

https:///news/eu-legislators-call-for-safe-ai-as-google-s-ceo-cautions-on-rapid-development

https://www./world/europe/german-authors-performers-call-tougher-chatgpt-rules-amid-copyright-concerns-2023-04-19/

https://www./2023/05/16/tech/sam-altman-openai-congress/index.html

https://www./technology/2023/05/16/sam-altman-open-ai-congress-hearing/

https://www./2023/05/16/openai-ceo-woos-lawmakers-ahead-of-first-testimony-before-congress.html

https://www./2023/05/16/technology/openai-altman-artificial-intelligence-regulation.html

https://www./2023/05/17/tech/sam-altman-congress/index.html

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多