分享

降临派vs拯救派 | AI大佬站队图谱

 liuaqbb 2024-03-28 发布于北京

理解了大佬们的站队,才能分辨哪些是真话,哪些是忽悠人的。

图片

图片

[作者] Lian, MK, Box

<1>如何读图?

Y轴:AGI vs ROI | 杨植麟 vs 朱啸虎

国内对于AI人物的专访,最生动和深度当推腾讯新闻张小郡与杨植麟、朱啸虎的访谈。两者分别代表了创业-投资圈对于AGI发展态度的两个典型代表:
  • 杨植麟(Y轴向上):AGI很快会实现,而且这是人类发展的关键转折

  • 朱啸虎(Y轴向下):AGI太虚幻,我要ROI

当然,还有第三篇王小川的访谈,不过感觉王小川的观点基本就是杂糅折衷(所以图中没有放他)

不过,如果只拿ROI来衡量AGI,那就太狭隘了。像我的《AGI万字长文》所讲,“AGI是人类第二次发现'火’的时刻。” 那么,作为第一次用火的原始人,你会在乎用火的ROI?

朱啸虎后悔自己“没投中字节”,我觉得不冤。凭他只从ROI出发的读题能力,没投中是必然的;以及,这次的AGI他大概也一样投不中。当然,另一个可能性就是放烟雾弹出来,这样少点人来竞争。

X轴:拯救派 vs 降临派 | Hinton vs Altman

眼光放到大洋彼岸,大佬们对于AGI的讨论主要不在Y轴(AGI是否能实现);争吵其实出现在另一个维度:拯救派 vs 降临派。更确切的说,当需要在“速度”和“风险”之间权衡的时候,是优先技术发展速度,还是优先风险把控。要强调的是,这里的风险指的是“硅基生命取代碳基生命”的风险,而不是什么幻觉/准确性的问题。我把这个维度用X轴来表示。

最典型的例子一是AI“图灵三巨头”之一的Geoffery Hinton(右上角)从Google辞职,并“后悔这一生在AI领域里的工作”。以及“OpenAI宫斗”中Ilya不惜炒掉Altman来强调“对齐”要比“进步”更加优先;不过,在一面向右的资本加持下,最后胜利的是Altman。

除了X轴和Y轴,我还标出了另两个信息,供大家参考
  • 颜色:红色为国内,蓝色为美欧

  • 形状:圆形是商业大佬,方形是AI技术大佬,三角是思想家/文化领袖

图片'Future',Yifei Gong 2024, with Dall-E

<2>三个观察

  1. 技术向左上,资本向右下

第一个观察,以及线下聊天的亲身体验是:做最核心AI算法技术的人大多都会相信AGI会在不远的将来(5-10年)到来;而做商业化、做产品、做投资的人大多数都对于AGI的实现持保留态度。这点很正常,因为只有相信技术的人才会去做技术。

但不正常是——做技术的大佬都向左偏:他们非常敬畏自己的发明。这个现象在工业革命、电力发明、互联网发明、iPhone发明等历史事件中是极少见的。那些时代的技术大佬无一例外都会到处吹嘘自己技术会造福人类,而不像今天以Hinton为代表的大佬深深畏惧着自己创造的东西,甚至“后悔这一生在AI领域里的工作”。同样的现象只出现在发明核武器的时刻

Now, I become death | 现在,我成为了死亡本身。——奥本海默

当然,Hinton的观点比较极端,更多的技术大佬的观点可以OpenAI的Ilya Sutskever为代表:“首先需要对AGI进行充分对齐,保证为人类所用,有控制地推进技术发展。”

技术阵营的特例是Meta的Yann Lecun|杨立昆,他的观点是“无法实现和人类一样的AGI”。不过在大多数媒体中,被直接缩减为“AGI无法实现”。仔细看Lecun的发言,我们会发现他一直的研究方向都是“做出和人类一样思考的AI”,但他并没有否认会出现另一种可以和人类有同等水平智慧——但思考方式不同的AI。另外,鉴于他作为Meta的领军人物,里面也充斥了“吃不到葡萄说葡萄酸”的感情。因此,我的猜测是(图中箭头)Lecun其实认为AGI的可能性不低,但现在特意出来降降温,大家跑得慢一些,自己好追。

因此,在主流技术大佬当中,对于AGI是否会在短期实现,其实基本没有争议。主要话术分成两类:
  • “我快要做出来了,这东西很危险,别人别再做了。”

  • “先降降温,大家慢点卷,等我做出来再说。”

回到商业领袖们,他们在X轴上有充分的共识:先做出来,赚钱最重要,其他的问题之后再说。但在Y轴上分裂成了两个阵营:专注投技术的(a16z、红杉等)聚集在上部,但非技术投资者(尤其是国内的朱啸虎们)目前都在右下角——ROI最重要,其他我都不在乎。

商业大佬和技术大佬理念上的不同造就了OpenAI的宫斗。Altman代表的CEO商业领袖们为资本服务,基本都在“降临派”的道路上前进,视AGI为下一个赚钱的工具。我只能说他们要么是“无知者无畏”,要么是宿命论式的“反正都是要一起灭绝的,那我还是先多赚一点”。而Hinton,Ilya代表的技术大佬则对于技术更加敬畏,因为他们深刻明白:AGI并不是一个工具,而人类是无法奴役一个比他更聪明的物种的

最后讲一句Altman。如果说朱啸虎们是无知,那Altman们就是无畏。这种无畏的一面是全人类命运作为筹码,另一面是Altman的个人成功。凡人终究无法抵挡成神的诱惑,在绝对的权力面前,其他的都不重要了。

图片'Divided', Yifei Gong 2024, with Dall-E

  1. 美欧在X轴上辩论,国内还在Y轴上纠结

第二个观察是:美欧对于AGI的讨论和国内完全不在一个维度上。西方媒体的最大声量在于“AGI对于人类意味着什么?” 而国内:
  • 技术大佬普遍不发声,或者发声也很小心,基本只谈技术细节而不谈社会影响

  • 媒体和商业大佬的讨论还基本停留在“能否赚钱”和“中美竞争”上

  • 思想文化界完全没有;从来没有过对于AGI的反思讨论

这些现象反映了国内投资圈的谨慎与短视。在这种大环境下,创业者们也很少有在思考:AGI到来的世界里,人们的根本需求会发生什么样的变化?更多人还是在想:我去哪抄个作业,才能最快致富?还有几个月我如何给投资人交差?如何把AI搬上现有的商业模式?……

这样的心态和环境,只能让差距越拉越大。

图片'Disturbed', Yifei Gong 2024, with Dall-E

  1. 公共讨论与监管的缺位

在文化与思想界,AGI也“混的不太明白”。尤其是完全没有理工背景的“大师”们,跨界翻车的现象也很多。比如: 语言学家乔姆斯基(N. Chomsky)对于AI的评论基本只能用“不懂技术”和“老糊涂”来评论:他基本是按照传统哲学/语言学的角度来理解分析,而全然没有“技术能做到什么”的视角。以及说,如果真的回到维特根斯坦对于“语言与思维的紧密相关性”的本质探讨:人是无法脱离语言来思考的。那么大语言模型是完全可以通往智慧的。(哲学三脚猫,恳请指正讨论)

还好,也有明白人/先知。霍金(S. Hawking)2019年的遗作《十问-霍金沉思录 | Brief Answers to the Big Questions》中非常深刻而直接的表达了AI对于人类社会和人类种族的威胁。作为宇宙学家的霍金和马斯克的观点有不谋而合(或者马斯克受霍金启发):人类需要殖民宇宙,否则无法保持物种延续。赫拉利(Y. N. Harari)2016年的《未来简史 | Homo Deus》(书名直译:人神 | 从人中诞生之神) 也非常明确的表达出:“我们甚至不需要探讨AI的意识问题;(在经济社会中)'智慧’和'意识’如果来个比试,谁会赢呢?” “社会将分裂成两级:极少控制AI的统治者 + 大量的'无用的人’。

对于可能有如此重大影响的问题,我们再看世界各国立法机构都在做些什么呢?基本缺位。目前只有欧盟有象征性地讨论AI监管,其他国家基本的态度都是:先不立法,让AI野蛮生长。

因为大家都理解到了:AGI可以全面提高国家竞争力和科技实力;作为一个“强国”,如果没有AI就等于失去了为了国际政治的入场券。所以,现在的“主权AI”的提法绝不是空穴来风,而一定会成为现实。在AGI的绝对权力面前,国家也不会经得起诱惑

于是乎,现在有关AI的立法研究基本还跳不出“隐私”、“幻觉”的框架;这里立法的目的是去罚款,尤其是罚外国公司的款。但,和人类命运相比,隐私和幻觉难道不是两颗芝麻吗?

在精英阶层都如此执着于“国家间竞争”,而看不到“人类与AI竞争”的全貌时,也就难怪世界各国大众的对于AI的看法都停留在“不明觉厉”、“看看热闹”、“与我何干”甚至是“AI是啥”的阶段。

图片'Scrumble of civilization', Lian 2024, with Dall-E

<附录>大佬详细介绍

大佬观点提炼过程未经过细致分析,且可能用语过于直接辛辣,仅供参考。

商业领袖

图片

【姓名】Sam Altman | 山姆-奥特曼

【职位】OpenAI创始人,曾任YC孵化器总裁

【贡献】作为CEO领导OpenAI实现了多个重要AI项目的突破,包括GPT系列模型的开发

【观点】降临派-AGI短期实现

  • AGI将是人类最伟大发明,将颠覆所有行业

  • AI指数级进步,十年内会出现超越大多数人类智力的AI

  • AGI无法被阻挡,OpenAI要不惜一切代价成为行业第一

  • (人类的未来我管不了,我不做也会有别人做)

图片

【姓名】 Elon Musk | 伊隆-马斯克

【职位】 xAI创始人,Tesla创始人,SpaceX创始人,曾为OpenAI联合创始人

【贡献】 在电动汽车、航天科技、以及人工智能领域均取得了开创性的成就,创立xAI并开源Grok-1模型

【观点】 拯救派-AGI短期实现

  • 人类必须殖民太空,才能种族延续

  • AI虚拟世界与太空科技是竞争关系,需要在AI足够强大-人民陷入虚拟世界-失去梦想之前殖民火星

  • 加速碳基生命进化、硅碳混合生命(脑机接口)是人类与AI竞争的唯一手段

  • AI在可控情况下将对人类发展产生巨大推动;但AGI将造成巨大社会变迁,需要“全面收入”universal income 来抵御冲击

  • 距离AGI的实现只有3-5年时间

图片

【姓名】 黄仁勋

【职位】 英伟达CEO

【贡献】 领导英伟达成为AGI算力基础设施的最大供应商

【观点】 降临派-AGI短期实现

  • 未明确透露对于AGI的价值评价,但反正钱都我赚了

  • 着手建造“算力垄断”的能力,做最大的商业帝国

  • AGI和具身智能的实现时间不会遥远

图片

【姓名】 李彦宏

【职位】 百度创始人兼CEO

【贡献】 领导百度在搜索引擎、人工智能等多个领域取得领先地位,特别是在语音识别和自动驾驶技术上的创新

【观点】 降临派-AGI短期实现

  • 希望百度能做到OpenAI的水平,但心有余力不足

  • 初期观点认为AGI一定能实现,但发现自己短期做不到之后转而鼓吹要做大量AI原生应用(希望别人都只做应用不做底层)

图片

图片

【机构名称】 技术投资机构 (A16Z, 红杉等)

【贡献】 对AI初创公司的大规模投资加速了该领域的技术创新和应用普及

【观点】 降临派-AGI短期实现

  • 确信AI技术将渗透到社会的各个层面,解决规模化与个性化的矛盾

  • 相信技术能够带来积极的社会变革,并为人类创造一个更繁荣的未来(只要钱赚了,总会有解法的)

图片

【姓名】 朱啸虎等非技术商业投资人

【观点】 降临派-AGI无法实现

  • 只投能快速赚钱的,能立刻有场景、能商业化、找到PMF的项目

  • 中国的大模型及应用公司大多是伪需求、低壁垒

  • 认为技术曲线终将放缓,更注重将AI能力投入快速变现的商业场景中

技术领袖

图片


【姓名】 Geoffrey Hinton | 杰弗里-辛顿

【职位】 多伦多大学教授,前谷歌副总裁

【贡献】 被誉为“深度学习之父”,对反向传播算法和深度学习理论做出了重要贡献

【观点】 拯救派-AGI短期实现
  • 人类可能只是智能演化过程中的一个过渡阶段
  • AI对人类的威胁是一个严重且迫切的问题,而且人类已经无法阻止AI发展,需要团结合作寻找解决办法

  • 为AI已经接近人类大脑水平,在20年内有50%+的概率会超越人类大脑

  • “后悔毕生在AI领域中的工作”

图片


【姓名】 Ilya Sutskever | 伊尔亚·苏茨克维

【职位】 OpenAI联合创始人兼首席科学家

【贡献】 领导OpenAI GPT、DALL·E系列模型研发,参与OpenAI的超级对齐团队的建立。

【观点】 拯救派-AGI短期实现

  • ChatGPT可能已经有一定意识

  • “对齐”必须先于“进步”; 首先要让较弱的智能(大脑)驯服更强大的智能(AGI)

  • AI无法被阻挡,但可以被驯服(驯服是唯一的解法

图片

【姓名】 Yann LeCun | 杨立昆

【职位】 Meta首席AI科学家、纽约大学教授

【贡献】深度学习三巨头之一,提出了卷积神经网络。提出了不同于大语言模型的认知模型架构来实现自主机器智能(Autonomous Machine Intelligence)

【观点】 降临派-AGI无法实现 (实际观点存疑)

  • AGI还为时尚早,短期内AI无法超越人类,现在还不需要过多担心。

  • “和人一样思考的AI”需要具备更深层次的理解和推理能力,包括对物理世界的基本了解和常识,达到和人类一样对真实世界学习、应对和规划的能力,因此还需要大量技术突破。

  • AI需要开源和民主化,让最强大的模型掌握在一小撮人手里只会更糟

  • (先降降温,等我也做出来再说)

图片

【姓名】 Demis Hassabis | 德米斯-哈萨比斯

【职位】 DeepMind联合创始人和CEO

【贡献】 领导DeepMind团队在人工智能领域,尤其是在AlphaGo、AlphaZero项目中取得突破,开启了机器在复杂游戏中战胜人类的新纪元

【观点】 拯救派-AGI短期实现

  • 认为十年内可能就会实现AGI,目前仍需在提升规划、工具使用等Agent的能力上有更多技术突破

  • 呼吁社会需要赶紧为AGI的到来提前做好准备,比如对AGI进行类似自动驾驶的分级、建立坚固的模拟沙箱来测试AGI

图片

【姓名】 Dario Amodei | 达里奥-阿莫迪

【职位】 Anthropic创始人兼CEO,前OpenAI研究副总裁

【贡献】 在OpenAI期间参与了GPT-2和GPT-3的研发,建立Anthropic重视AI的可靠性和可解释性,发布了对标GPT-4的Claude 3

【观点】 拯救派-AGI短期实现

  • 认为AI两到三年内就可以达到人类水平

  • 非常关注AI的安全、对齐、滥用问题,以及AI是否存在自我意识

  • 在微软投资OpenAI后因为方向性问题离开,创立Anthropic,专注于开发可解释、可靠的人工智能系统

  • Anthropic = 人类的

图片

【姓名】 吴恩达 | Andrew Ng

【职位】 斯坦福教授、Coursera和DeepLearning.AI联创、AI Fund基金创始人、前Google Brain联合创始人、前百度首席科学家

【贡献】 在在线教育、深度学习、以及人工智能领域做出了巨大贡献,特别是在推动深度学习教育普及方面

【观点】 降临派-AGI需要一定时间实现

  • AGI还需要数十年时间实现,而不会在一夜之间突然实现

  • 倾向于支持更加开放和灵活的监管框架(请监管不要管AI)

  • 我也要搞出AGI来,其他的以后再说

图片


【姓名】 Arthur Mensch | 阿瑟-门什

【职位】 Mistral AI联合创始人兼CEO

【贡献】 参与DeepMind Flamingo、Chinchilla等大模型项目。领导Mistral开源了Mistral-7B ,Mixtral 8x7B等模型,并推出Mistral-Large,让欧洲拥有了第一梯队的大语言模型。

【观点】 拯救派-AGI短期实现

  • 认为三年内能够创造出更好的Agent架构,AI届时可以完成大部分白领工作

  • 模型安全方面,主要关注输出的可控性和抑制偏见,并且认为严格的监管非常重要

  • 开源AI是推动技术发展和确保技术安全的关键

图片

【姓名】 杨植麟

【职位】 月之暗面Moonshot AI创始人

【贡献】 在大模型和自然语言处理(NLP)领域具有深厚的研究背景,推动了AI技术的创新和应用

【观点】 降临派-AGI短期实现

  • 认为AGI是未来十年唯一值得追求的目标,并且是接下来十到二十年内能够改变世界的核心技术

  • 随着AGI技术的进步,可用的应用场景数量将以指数级增长

  • 对世界的压缩和对人类行为的压缩形成了智能,更无损的大量信息压缩是向更高级别智能发展的关键

  • 暂时没有提及有关技术伦理的问题

图片

【姓名】 张俊林

【职位】 新浪微博新技术研发负责人,知乎深度学习领域优秀答主

【贡献】 在深度学习和社交媒体技术领域有着丰富的实践经验和研究成果

【观点】 拯救派-AGI短期实现

  • AGI最重要的能力是“涌现”

  • 智能可能比想象得更简单;没有明确的原因阻止AGI产生智能

图片

【姓名】 Lex Fridman | 莱克斯-弗里德曼

【职位】 MIT研究员,专注于AI和深度学习

【贡献】 通过大量与AI领域创业者、科学家的播客访谈,促进了公众对AI技术的理解和讨论

【观点】 拯救派-AGI短期实现

  • 对于人工智能的发展潜力整体持积极态度,但担心AI带来的可能性与危险,如让人类懒于思考

  • 认为人类最终还是能找到解决AI危险问题的方法

  • 目前主持大量“访谈”类节目,因此不能有太多倾向性

文化领袖

图片

【姓名】 Stephen Hawking | 斯蒂芬-霍金

【职位】 知名理论物理学家,科普作家

【贡献】 对宇宙论和黑洞物理学作出了巨大贡献,同时也是AI技术发展潜在影响的重要评论者

【观点】 拯救派-AGI短期实现

  • “AGI可能是人类的终结”,会出现能够快速不断自我完善的AI,最终超越缓慢进化的人类并导致人类的毁灭

  • 人类必须殖民太空,才能保持种族延续

  • 人类需要联合起来防范和控制AI可能带来的威胁

图片

【姓名】 Yuval Harari| 尤瓦尔-哈拉瑞

【职位】 历史学家,作家

【贡献】 通过其畅销书籍《人类简史》、《未来简史》等,对人类历史和未来进行了深刻的思考和分析

【观点】 拯救派-AGI短期实现

  • AI不仅可能超越人类的智能,而且可能发展出自己的意志和目标,这些目标一旦与人类利益不一致,就会导致人类文明有被摧毁的风险

  • 通过语言,AGI有能力创造新的故事和概念,从而改变人类的文化和认知框架,AGI正在获得入侵人类文明系统的关键

  • 应该加强对AGI的监管,确认AGI的安全性之前,禁止将其发布到公共领域

图片

【姓名】 Noam Chomsky | 诺姆-乔姆斯基

【职位】 语言学家,认知科学家

【贡献】 在语言学、认知科学和政治评论领域均有深远影响,被视为现代语言学的奠基人之一

【观点】 拯救派-AGI无法实现

  • 认为目前AI技术还远未达到能够模拟人类智能的水平,GPT预测下一个token概率的方式与人类推理和使用语言的方式存在根本性的区别,因此有无法消除的缺陷

  • AI可以无差别学习错误的或者不可能的命题,而不能根据已有信息进行推理、解释、思考,缺乏真正的智能应当具备的批判能力

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多