分享

生成式AI的另一面:模型越大,风险越大

 颐源书屋 2023-05-17 发布于北京

AI软件功能的爆炸始于2010年代初:“深度学习”的软件技术开始流行。世界最佳棋手之一李世石在2016年被基于神经网络的AlphaGo击败,从此退出了围棋比赛。通过处理最人性化的媒介——对话,ChatGPT现在让使用互联网的公众体验到了类似的“智力眩晕”。伴随这种兴奋而来的是科技行业内外的深切担忧:生成式AI模型的开发速度过快了。GPT-4就是一种称为大型语言模型(LLM)的生成式AI。Alphabet、亚马逊和英伟达等科技巨头都训练了自己的LLM,把LLM的力量放到很多人手中意味着许多头脑可以构想出创新的新应用,改进从医学到法律的一切,但也意味着让科技精英夜不能寐的灾难性风险变得更大。《经济学人·商论》本周连续推出AI专题系列文章,欢迎订阅阅读中英双语原文。


图片
《经济学人·商论》2023-05-16
Large, creative AI models will transform lives and labour markets

生成式AI
大型创造性人工智能模型将改变生活和劳动力市场
它们带来了巨大的希望和危险。但它们是如何工作的?【深度】

自创造ChatGPT的公司OpenAI在2022年11月首次向公众开放聊天机器人以来,技术精英们几乎没有其他想聊的话了。在笔者撰写本文时,伦敦一家科技公司的创始人主动发来消息说,“这些天我基本上满脑子都是”这种人工智能。他说自己正在围绕它重新设计他价值数十亿美元的公司。他不是孤例。ChatGPT包含的知识比任何人都多。GPT-4是ChatGPT背后的人工神经网络,在美国的法律和医学执照考试中取得了优异的成绩。它可以生成歌曲、诗歌和散文。其他“生成式AI”模型可以大量制作数码照片、绘图和动画。

伴随这种兴奋而来的是科技行业内外的深切担忧:生成式AI模型的开发速度过快了。GPT-4是一种称为大型语言模型(LLM)的生成式AI。Alphabet、亚马逊和英伟达等科技巨头都训练了自己的LLM,把它们命名为PaLM、Megatron、Titan和Chinchilla等。

那位伦敦科技公司的老板表示,即使他也在追求运用AI,他也“对AI带来的生存威胁感到难以置信的紧张”,并且“每天都在与[其他]创始人谈论它”。美国、欧洲和中国的政府都开始考虑制定新的法规。一些知名人士呼吁暂停AI的发展,以免软件以某种方式失控并损害甚至摧毁人类社会。若你想把对这项技术的担忧或兴奋调整到恰当的程度,不妨首先了解它是怎么来的、它的工作原理,以及它发展的局限性。

【付费深度文章】欢迎打开商论App,订阅后获取更多《经济学人》核心观点:

  • LLM实际上是一项庞大的统计学操作——它是如何工作的?
  • LLM只会以统计而非语法的方式来理解。它更像是一个算盘,而不是一个头脑
  • LLM的输出并不完全可预测;OpenAI研究员已经在各种不同的LLM中统计到了137种所谓的“涌现”能力
  • 涌现的能力令人兴奋,因为它们暗示了LLM尚未开发的潜力——但也可能意味着风险
  • 很难判断哪些有害行为可能处于休眠状态,等待着规模扩大一点时被释放出来
  • LLM的注意力网络是从如此海量的数据中学习的关键

衍生阅读 | GPT企业级应用的挑战


谷歌云计算部门首席技术专家威尔·格兰尼斯(Will Grannis)指出,在采用新技术上,企业的要求要比消费者要高得多。保护机密或敏感数据就是担忧之一,这已导致从摩根大通到国防承包商诺斯罗普格鲁曼禁止员工在工作中使用ChatGPT。一个更大的问题是可靠性。ChatGPT这类工具能给出貌似可信但违背事实的信息——这个过程被委婉地形容为“错觉”。一些人担心出现大量由AI生成的诈骗、错误信息和计算机病毒。但最大的问题还是人与AI的关系。

图片

《经济学人·商论》2023-05-05
How businesses are experimenting with ChatGPT-like services

熊彼特
企业试水ChatGPT类服务
假以时日,这可能将带来收获

每个财报季都会产生新的流行语。在各大公司准备最新一季财报时,许多老板肯定会把一个词挂在嘴边——生成式AI。自打AI聊天机器人ChatGPT惊艳面世,老板们就一直垂涎生成式AI提高生产率的潜力。苏黎世保险集团(Zurich)正在使用定制版ChatGPT来简化冗长的索赔文件。玩具制造商美泰(Mattel)运用DALL-E设计新玩具,DALL-E是另一个根据文本提示生成图像的AI工具。生物技术公司Absci利用这项神奇新技术来辅助开发治疗性抗体。许多其他公司也都开始试水这一陌生领域。

知识经济的工具制造商更是全情拥抱了这股创新热潮。微软宣布了连串产品升级计划,将可以减轻办公室员工的工作负担,从起草电子邮件、汇总文件内容到写代码等等。微软云计算部门的AI主管埃里克·博伊德(Eric Boyd)在形容公司繁忙的发布安排时说,“一天当一周用。”竞争对手谷歌同样在改装升级自家的工具套件。分别为创意设计人员、销售人员和金融精英提供软件的Adobe、Salesforce和彭博也是如此。类似ChatGPT的法律AI助理Harvey和写作AI助手Jasper等创业公司正快速而密集地崛起。

尽管各种试验如火如荼,企业仍不确定该如何利用AI的新能力。博伊德表示,大多数公司不是低估就是高估了该技术的能力。人们正在研究哪些工作最适合通过AI重塑。ChatGPT和DALL-E背后的公司OpenAI在3月发表了一项研究,盘点了在各种职业里,使用生成式AI可把工作效率提高至少一半的任务占多大比例。排在前面的是涉及大量程式化写作、数字处理或计算机编程的职业,例如律师助理、金融分析师和网页设计师。... ...

浏览双语全文 完整图表 原声音频

《经济学人》熊彼特专栏《经济学人》商业版块最具代表性的专栏,得名于奥地利经济学家、“颠覆式创新”的提出者约瑟夫·熊彼特。同名专栏不仅观察金融和商业管理领域的重要趋势,也为读懂全球宏观经济和领军行业提供他山之石,是把握全球商业重要趋势和一线商业观察的必备读物。🔍欢迎下载《经济学人·商论》并搜索“熊彼特”直通更多往期职场精选文章。




衍生阅读 | OpenAI时代的“数据中毒”风险

随着生成式AI的兴起,“数据中毒”的风险也在逐渐增加。由于类似ChatGPT和DALL-E 2的算法训练需要在开放式互联网上直接抓取数据,从理论上讲,任何能上网的人都可以在数据中注入“数字毒药”以攻击这些AI工具。有一些数据可能只是降低AI的工具性能,但有一些可能会有更特定的反应,例如在某个特定主题下提供虚假信息。虽然目前还没有数据中毒的重大案例出现,但随着直接联网的AI聊天机器人变得越来越普遍,未来对于数据的处理将会更严谨。在将数据集输入算法之前,生成式AI领域的巨头们会将从网络上抓取的数据集进行过滤。不过,更棘手的问题或许是该由谁来定义什么才算是数字毒药

图片

《经济学人·商论》2023-04-28

Digital poisons

数字毒药

让机器学习算法走偏不是很难

大语言模型的兴起可能会让这个问题变得更糟

构成现代AI系统的基础算法需要大量数据进行训练。这些数据大部分来自开放网络,不幸的是,这让AI容易遭受一种叫作“数据投毒”的网络攻击。这种攻击会修改训练数据集或在其中添加无关信息,让算法学习到有害或不良行为。就像真正的毒药一样,中毒的数据在造成损害之前可能不被察觉。

数据投毒并不是个新概念。例如在2017年研究人员就演示过,这种攻击方法如何可能导致自动驾驶汽车的计算机视觉系统将停车标志误认作限速标志。但这种伎俩在现实世界中可行性如何,在当时还不清楚。安全关键型机器学习系统通常在由人类整理和标记的封闭数据集上进行训练,有毒数据难以混入其中而不被察觉,在波士顿的东北大学(Northeastern University)工作的计算机科学家阿利娜·奥普利亚(Alina Oprea)说。

但随着近期运行在大语言模型(LLM)之上的ChatGPT和图像制作系统DALL-E 2等生成式AI工具的兴起,企业已经开始在大得多的存储库上训练算法,这些存储库里的数据往往是从开放的互联网上直接抓取的,而且在大多数情况下完全不加选择。从理论上讲,任何能上网的人都可以注入数字毒药攻击这些AI工具,苏黎世联邦理工学院(ETH Zürich)的计算机科学家弗洛里安·特拉默(Florian Tramèr)说。。... ...

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多