分享

甲小姐对话黄铁军:作为个体的永生没有意义

 昵称163835 2023-07-15 发布于广东

文|甲子光年,作者|甲小姐、刘杨楠

“我们处在一个不能确定的状态,这样的Near AGI(准强人工智能)比我们强吗?它超过我们的智能了吗?还是它在什么时候能超过我们呢?我不知道我们处在一个完全无法把控的状态里。如果我们能够用做投资一样的热情去应对风险,至少有一定把握未来的可能,但是,你相信人类能做到吗?我不知道

2023年6月10日,在智源大会的「AI安全与对齐」论坛闭幕式上,黄铁军多次表达“我不知道”。说完最后一个“我不知道”,他接了句“谢谢”,成为这场AI盛会的结尾致辞。

黄铁军,北京智源人工智能研究院院长、北京大学多媒体信息处理全国重点实验室主任。他的研究方向为视觉信息处理和类脑智能,发明了脉冲连续摄影原理和超高速相机,获国家技术发明奖二等奖(高效视觉特征分析压缩)、国家科技进步二等奖(视频编码国家标准)、中国标准创新贡献奖突出贡献奖和吴文俊人工智能科学技术奖杰出贡献奖。同时,他还是中国人工智能学会、中国计算机学会、中国图象图形学学会和中国电子学会会士。

没有什么比一个意外强大又不确定的技术更让人们魂牵梦萦、念念不忘。关于AI的发展路径,目前全球大咖尚未形成共识,杨立昆(Yann LeCun)、斯图尔特·罗素(Stuart Russell)、杰弗里·辛顿(Geoffrey Hinton)、山姆·奥尔特曼(Sam Altman)等AI领军者都各执一词。在未来真正发生之前,这注定是一场成败难见分晓的争辩。

本文,「甲子光年」对话黄铁军。我们试图跳出产业框架,聊聊更本质也更尖锐的问题。黄铁军给出了五个否定式的判断:

谈不朽:“作为个体的永生是没有意义的”

复制只是不朽的转换点,复刻体自身要以新的形式发展下去。

甲小姐:你在智源大会的闭幕词用了八个字作为标题——“难以预测,无法闭幕”,并反复说了多次“我不知道”。你对AI的理解和上个月有不同吗?

黄铁军:几乎没有不同。我说的若干个“我不知道”其实是经过思考的,不是一时的反应。

那天(注:智源大会当天)Hinton提到了Mortal Computation(非不朽计算),这个概念涉及“可朽”和“不朽”两个话题。我在2015年就思考过相似的问题。我之前认为的“不朽”主要是将大脑结构用电子形式实现,人类就能跳出寿命限制。即使电子大脑的寿命受限于材料的生命周期,它也很容易复制新的本体继续存在下去。现在我依然认为,纯电子大脑一定会出现。但变化在于,我对永生、不朽这两个词有了新的理解。

甲小姐:如何理解永生、不朽?

黄铁军:中国自古有“三不朽”——立德、立功、立言。立德,即你的行为可以成为后世的一种典范,例如孔子、雷锋;立功,即你的存在让世界发生了不可逆的变化,例如历代帝王;立言,即你写的文章或提出的新理论成为人类文明共同的精神财富,例如李白、杜甫、爱因斯坦、牛顿。Hinton讲的“永生”是最后一种,立言——你能够以文字、代码的方式永久流传下去,他认为这就已经实现了不朽。

其实这种不朽早就实现了,只要世界没有毁灭,人的思想可以通过数字、纸张、石头等不易被物理摧毁的载体永远流传下去,但Hinton认为,现在的语言大模型已经把所有人类文明的成果凝练出来了。这和之前有本质区别——以前你写一篇文章发明新的原理后需要图书馆等保存手段,但语言大模型是把东西重新做了一次凝练和整理,对原始数据做了巨大的压缩,并且还产生了新组合的可能性。原来10PB的内容现在可能只有1PB,它的信息量不一定完全还原原始的10PB数据,但往往大于10PB的原始数据。因此Hinton讲的永生或不朽,是指人工智能大语言模型已经成为了人类文明新的载体。

假如我们把这样的大模型,像科幻作品写的一样送到了宇宙其他星球,那个星球的智能体就可以通过跟大模型交流获得关于我们社会的很多认识。原来你写的文章只是固定的内容,而大模型已经是活的智能体了。关于地球文明的各种问题你都可以问大模型,它似乎是无穷无尽的,像人一样,我们可以一直交流下去。从这个意义上说,即使地球消失了,但只要这样的数字大脑存在下去,也能给你讲述我们曾经存在的世界是什么样,甚至能产生我们没有发现的新原理。有点像神灵一样,假如某个外星文明比我们落后,在数字大脑降落到那里后,那些人就可以天天到“庙”里求答案。

这个意义上,人类已经不是作为个体永生,而是我们所有的文明成果都凝练成一个活的模型,它不会消失,而且可以复制。

甲小姐:Hinton的思想让你有了哪些反思?

黄铁军:我的反思是,我们到底要追求什么样的不朽?一种是长生不老;一种是以光、电等非碳基形式复刻大脑和行为方式,以另一种物理形式永生。第二种的极端形式是对人的复制达到几乎完美的程度,它的想法和你完全一样,现在没人能做到这一点。复制大脑是有可能的,但你要把人的状态,大脑中所有正在发射的神经脉冲都记录下来复制在另一个载体上,让它独立于人体永生下去,这是很难的。

多数人都在追求这两种永生,但我们需要反思一下,我们到底要不要追求这种意义上的不朽?每个人都觉得自己很重要,但从历史发展的角度看,智能在不断演化,你要想好,如果你真要进入一个全新的、智能水平更高的时代,其他“人”的智能都是你的10倍,就你是个傻子,你要不要去?去了之后,你到底是幸福还是痛苦?

甲小姐:要去,幸福没有好奇重要。

黄铁军:在那个智能水平更高的时代,你只能看个新鲜,很多东西你是无法理解的,就像猩猩眼中的人类每天也在跑来跑去,但它不理解人类为什么要画画、听音乐,如果是这样,你还要去那个时代吗?

甲小姐:我现在也无法欣赏钢筋混凝土和堵车,但依然希望活在现代化的世界。

黄铁军:但你能理解钢筋混凝土和堵车,我们都是人,总的来说没有猩猩、蚂蚁和人之间这么大的差别。但未来我们就是猩猩和蚂蚁,作为一个落后物种,你要不要主动去先进物种的世界里混日子?

甲小姐:人类如何对待不朽,这个问题很重要。可能今天AI定义者的一念之差,百年之后的文明轨迹就会大相径庭。我认为恰恰是“不朽的可能”从本源上驱动了很多人对AI的热情,这是人类动物性的本能——想要生存,想要繁衍,所以想造一个不朽的自己出来。

黄铁军:你说得对。但问题是不朽的是谁——你不朽,还是人类文明不朽,还是文明凝练成的模型不朽?

甲小姐:诚实地说,如果我的精神可以不朽,很好;如果我的肉身也能不朽,更好;如果我的肉身和精神一起不朽,最好。

黄铁军:我相信这是大多数人的选择,但我们要反思一下这种选择真正的意义有多大。你作为肉体或者复刻体的不朽存在下去,和你留下了只言片语但是是独有的,两个相比哪个更有意义?

甲小姐:能靠只言片语思想永存的人是极少数,牛顿和爱因斯坦做到了,但99%的人不太可能。

黄铁军:你连那个贡献都没做出来,又怎么值得不朽下去?

甲小姐:为什么不值得?如果我的后代对我很好奇,他们想了解自己的曾曾曾祖母,想跟我对话,这也是意义所在。

黄铁军:现在两三代之后的孩子和长辈代沟已经很大了,你的知识体系对他来说已经落后了,是老古董。

甲小姐:我看了你过去的文章,你一直有复刻大脑的冲动,这和大家追求的不朽不同在哪?

黄铁军:复刻是一个转换点,但不是终点。大多数人认为的不朽是复刻之后,还一直以原来的形式存在下去,但我说的复制只是不朽的转换点,复刻体自身要以新的形式发展下去。比如把我复制后,再过几十年我就消失了,它没消失,但它已经不是我了,它的学习速度要快很多,大脑容量也更大,它成长为了全新的人,而我只是一个起点。

人类别太把自己当回事。人脑几百亿神经元只是未来人工智能千亿、万亿神经元的一个蓝本,它会快速地继续发展下去。我从来也没有想过让自己永久存在下去。我认为作为个体的不朽是没多大意义的,在整个智能的进化史中,你只在某个时段有意义。

谈路径:“人类语言不是终极的表达方式”

生物模拟系统产生复杂可能性的潜力要比纯数字系统大得多。

甲小姐:AI弄潮儿有两种态度,一种是大脑的拥趸,一种是语言的拥趸。后者认为,语言 is everything,智能的本质就是语言,在这个底层世界观之下,可能未来地球文明就变成了大型对话系统。今天因为ChatGPT,大部分人认为大语言模型是最牛的不朽方式,例如王小川原来以为要靠图片、视觉才能实现通用人工智能,结果发现只靠文字就实现了。

但我有个担忧,语言可能会随着文明的演变被大幅改变。比如《三体》里三体人用脑电波直接交流,《降临》里的外星人不用线性语言,一个墨水团就代表一大段意义。在更高阶的文明里,语言是有可能被淘汰的,文明不一定要通过你问我答来彼此理解。

黄铁军:至少语言可能是落后的。人类现在只会用语言交流,所以很多人觉得语言是智能的标准答案,但这是错误的。

人类语言肯定不是终极的表达方式,只是其中的一种表达方式。猴子的语言是不是语言?是语言,鲸的语言是不是语言?鲸的语言很丰富,可能甚至比人类语言还要丰富,只是我们不明白。语言的不同类型和它所处的环境、所附着的物理载体是直接相关、密不可分的。我们进化到今天,长出了身体的各个结构,声带、耳朵、耳膜生成的声波,都跟我们的物理身体密不可分。

历史上从来没人认为语言包含一切。经典人工智能路径的符号系统中的“符号”是抽象的,它来自物理世界。例如“红色”“蓝色”“美”“丑”等语言符号都有物理基础。如果不把符号和物理特性联系在一起,就没有落地,无法完全表达世界。红色如果不和光波联系在一起,跟绿色没有什么区别。传统的语言学家从来没有认为语言是描述世界的充分条件,它只是表达世界很重要的手段,只是把物理世界抽象出一部分来表达,不等同于世界。

为什么这一次语言如此惊艳?包括我们不做语言的人也对语言的看法有了新的提升。原来语言不能落地的看法需要升级,只靠语言也能一定程度上grounding(落地),但不是全部。纯粹的符号没有意义,但当我们把语言当成整体,尤其是训练成语言大模型之后,红色的物理感知在语言空间出现了。大概在一两年前,北师大心理学教授毕彦超来智源做报告,他做了一个实验,对比红色和绿色在盲人世界里是什么样子。天生的盲人从来没有感知过视觉信号,但他脑海中红色偏暖,绿色、蓝色偏冷。他的手触碰到火的时候,别人可能会告诉他火焰是红色的,触碰绿色物体时都是冰冷的,他可能就会把感受打通了。盲人小孩子也会说蓝天白云、红花绿草,但他讲这些话的时候,脑海中的影像肯定跟视力正常的人不一样。我们不能孤立地看符号,符号是相互解释的。

甲小姐:即使视力正常的人,不同环境的人对同一事物的感知也不一样,比如南方人和北方人对雪的感知就不同。沃尔夫提出了语言相对论——语言会反过来影响人的世界观。

黄铁军:语言是世界观的一部分。ChatGPT的出现让语言的重要性提高了,但如果缺少视觉等其他感知手段,人对世界的认知是远远不够充分的。在智能体构成对世界感知的过程中,语言、视觉、嗅觉、触觉都是必要的。但我们的感知绝对是有限的,我们的眼睛只能感知到可见光,就算六感全开也是非充分的信号系统。

甲小姐:我隐隐有种担心,原本人类有机会复刻大脑,乃至在生物和物理层面造出生命体,但现在人们不愿意做了,觉得不如搞大语言模型快。

黄铁军:Hinton提出的模拟计算或可朽计算、有限计算,我们十几年前就这么想,并不是他的原创。Hinton选择了一条合理的路线,让AI不仅是学术研究,而是变成了实实在在的系统,产生了现实影响。但这并不是人工智能的全部,他自己最近也说,“如果再给我一次机会,我会做脉冲神经网络”。

其实我们已经做了十几年脉冲神经网络,最早的团队做了30年。人脑是脉冲神经网络,CNN(卷积神经网络)、Transformer都是人工神经网络,对神经系统的模仿是很粗糙的。但即便是如此粗糙的表达,仍然产生了这么强的能力。原来研究者认为脉冲神经网络路线更接近人脑,但CNN超出了这个预期。

人工智能路线是有鄙视链的。做脉冲神经网络的人认为CNN不高级,但现在不高级的东西产生了很强的功能,而高级的路线依然不能实现强智能。所以Hinton说,“要让我研究,我就愿意研究更高级的脉冲神经网络,可惜我已经老了,没时间再去研究它了”。但对于那些搞脉冲神经网络的人,包括我在内,会认为我们是选了更高级的路线。

Hinton给我带来的最大的变化是,让我反思作为肉体的人类到底有什么价值?我认为人类的独特价值在于,我们有比人工智能更丰富的创造能力。二者本质完全不同。纯数字系统和生物模拟系统最根本的区别在于,生物模拟系统产生复杂可能性的潜力要比纯数字系统大得多。

上世纪30年代,哥德尔和图灵时代对纯逻辑系统的能力已经有了明确界定,提出了不完备定理、不可计算数,说明纯逻辑系统是不完美的,一定会推导出相互矛盾的结论。任何计算系统都只能在可数意义上进行计算,不能在不可数的世界逼近。人类的智能不仅仅是个计算系统,而是超越计算和逻辑的。

DNA是个数字系统,但你不等于你的DNA。当你的DNA通过蛋白质变成生物体的时候,它就有了模拟系统丰富的创新能力。DNA是跟物理环境相互作用之后形成的相对静止的表达。大脑不同,数百亿的神经元之间每时每刻的连接强度都不同,是可以表达连续信息的。

甲小姐:现在时代正在呼唤一个清晰的、对未来有号召力的基础假设,让大家能相对有序地去配合和投入,否则智能的路线可能一直混乱下去,谁都得不到足够的资源。

黄铁军:可能不用那么着急。定义路径很重要,但定义不应该成为标准答案,并非所有人都应该照着标准答案去做。人工智能还会开放一段时间的争论,但不管时间多长,之后的变化会让人们在新的条件下去讨论。未来,智能一定会往更高水平进化,不会因为某一代人的定义或争论而改变——我们只是影响演化趋势的因素,现在人们往往会高估自己所产生影响的重要性。

谈偏见:“科学并非第一性的”

制造智能的前提不是理解智能。

甲小姐:我理解为什么有人认为语言包含了一切。在数学上,一条连续曲线可以填满整个平面;在科幻里,一个智子可以在极限速度下无处不在。一些科技狂人认为用单一模态就应该做到everything。

黄铁军:他能做到和他做到了是两回事。比如有了万有引力定律不等于我们对世界的描述就完成了,它会产生无穷无尽的复杂性,尽管基本规则是一样的。

甲小姐:AI的本质是科学还是技术?

黄铁军:它就是技术。需要解决无数个小问题,产生无穷的可能性。

甲小姐:OpenAI用暴力美学一路投奔AGI,这不是科学?

黄铁军:主流方法论从来都是暴力美学。从主流方法论上,构造一种系统,训练系统产生丰富的智能,这是AI基本的方法论。这和寻找终极奥秘的公理思维背道而驰——构造一个系统可以不断往里面添加新的要素,让系统不断变化,功能也会不断变化,这是技术思维,也是AI的主流思维,但科学的思维是要去找基本原理。这是两种思维方式,是科学和技术最本质的区别。有些人说技术是第二性,科学是第一性,我认为这是错的。科学并非第一性的,真正的科学发现和真正的技术发明都是从零到一,都是原始创新,不以对方为前提。

甲小姐:为什么“科学并非第一性的”?

黄铁军:以数学为例,我认为你曾就读的学院名字起得就有问题——数学科学学院,但数学既是科学又是技术。很多数学家就在做技术——构造原本不存在的事物叫技术。 AI是构造具象系统,是技术;很多数学分支是构造抽象系统,拓扑学首先是一种技术,它在构造一层一层的抽象形态。哥德尔偏科学思维,图灵偏技术思维。从定义看,科学是发现事物和现象背后的规律;技术就是创造新的事物——可以是物理的、具象的事物,也可以是抽象事物。

甲小姐:很多数学家做的是证明。

黄铁军:证明的前提是提出问题,提出问题首先需要技术思维,要先构造出一种可能性。

甲小姐:图灵机的构造过程包含科学问题。

黄铁军:当图灵说不可计算数存在的时候,是科学问题,但当他去想象用一台机器不断读写纸带,那是技术思维。他必须先把那个抽象机器想象出来,靠那个抽象机器去证明科学问题。

为什么科学不是第一性的?科学是发现事物背后的规律——首先事物要存在,不存在你发现什么规律?自然科学存在是因为自然界存在,物理学存在是因为物理世界存在。我可以根据科学规律创造事物,也可以完全不根据既有科学规律创造事物。指南针就不是根据已知科学规律造出来的,AI也是这样。这不是反科学,不是伪科学,而是技术发明时还不理解背后的科学原理。

甲小姐:你之所以强调这一点,是因为担心国内很多时候过分要求搞技术的人必须解释科学原理?

黄铁军:如果坚持这种思维方式,中国四大发明都发明不了,这是阻碍创新的一种思维误区。

甲小姐:总强调科学的第一性原理是挺傲慢的?

黄铁军:我们先要纠正对科学技术的这种偏见。不是说它完全不正确,确实有很多技术系统事物的发明是基于已知科学原理的,比如量子力学对很多现代发明起重要作用,但是,同样有更多事物,是事物先被发现,再有原理解释,甚至到现在还没有解释。你看我2015年写的那篇科普文章,第一段写的就是这个观点。人工智能到底是“理解智能”还是“制造智能”?我们是要“制造智能”。“制造智能”的前提是不是要“理解智能”?不是。

技术讲how,怎么做你要能说得清楚;科学讲why,也就是追寻背后的规律。

甲小姐:现在确实存在悖论。如果无法回答why,很难实现how,如果无法自证合理,你就很难申请经费、融资、招人。

黄铁军:是的,这就是技术最难的地方。AI就是这样,ChatGPT是庞然大物,既无法解释又无法监管,但是它出现了。即便某天你说ChatGPT既可以解释又可以监管,将来还会出现更强大的系统无法解释、无法监管。AI一定是这么往前发展的。人类能够制造出具有自主意识的“超级大脑”吗?这方面的哲学论辩已经持续上百年,再喋喋不休已经意义不大。行胜于言,对这个问题最好的回答是制造出“超级大脑”。

谈选择:“真正的智能系统无法解释”

无法解释不是阶段性的,而是一种本质性。不可解释是比解释更第一性的存在。

甲小姐:你什么时候意识到AI的路径不一定要基于理解和解释?

黄铁军:在2015年我写那篇文章的时候,是我一生中最大的思想转折。我44岁之前基本的思维方式是要先解决why再去实现how,这也是大多数人的思维方式。但在有生之年有没有可能出现AGI和强大的人工智能?如果想要实现,要怎么去实现?在思考这个问题的过程中,我最重要的思维障碍被打破了:不能等着解释了,不能等着搞清楚为什么才去制造智能。

甲小姐 :当时什么触发了你的思想转变?

黄铁军:我大概从2010年开始学神经科学,在和神经科学家合作的三、四年里思想发生了转变。原本我们搞IT的人想法就是,科学家把生物的机理原理告诉我,我们用算法实现,这就是科学。但是做了几年,几乎无效。

神经学家也还在找why的过程中。人脑是个黑箱系统,我们所已知的只是黑箱中很有限的部分。例如,我们以为很清楚眼睛视网膜的工作原理,但实际可能只了解10%。当然,我们希望一步步分析视网膜内的信号变换过程,把黑箱透明化,这是科学目标。我们想通过科学家找原理,科学家问我们有什么技术手段能帮他们搞清楚原理,鸡生蛋,蛋生鸡,那这事不就没法做了吗?

甲小姐:我发现接触过生物学的人和纯数理逻辑的人有不一样的科学观。我之前对话特伦斯,他学了物理又学了生物,生物的处理复杂问题的思维方式成为他认知的转折点,让他相信“进化比你聪明”。

黄铁军:我也同意。但问题在于,进化的聪明难以告诉我们进化是怎么做到的。

甲小姐:进化就是某种暴力美学——物竞天择,适者生存。

黄铁军:这是原则,强化学习也是这样,但地球花了多少代价才进化出我们?我们不可能再进化一遍。

甲小姐:是否可能在数字环境下加速过程,把地球46亿年的发展史变成AI的4年?

黄铁军:如果用相等的代价做同样的系统,方法论是对的。但问题在于让数字环境逼近物理真实有很大的挑战,并且试错成本太高。以自动驾驶为例,即使在数字空间里,撞车的可能性也是无穷无尽的。如果直接用进化好的结果,这也是一种思路。但是有文献或者原理的,我们可以用。没有的,三五年甚至十年可能都难以等到。这个时候就促使我去想,没有原理我能不能做?没有原理又该怎么办?回头一看,没有原理能做的事太多了。莱特兄弟发明飞机的时候没有空气动力学。即便是现在,空气动力学也没有完全解释飞行的所有原理。差不多这个时间点,我发现不能再等着科学家奠定理论基础我们再去实现,这个逻辑是有问题的。

到今天,像ChatGPT这种大模型产生了智能,但科学上对复杂性理论的探索还在早期。智能是一种现象,甚至是我们可能看到的最复杂的现象。在科学没有给出原理帮助你设计系统之前,你能干什么?你能做的就是构造复杂系统。

甲小姐:说起复杂性科学,美国圣塔菲研究所的梅拉妮·米歇尔教授在《复杂》中提到一个Logistic模型启发了我。它解释了为什么看起来没有任何偶然性且简单的方程产生了混沌的效果。是不是即使再复杂的系统,也还是可以用极简的东西去表达?

黄铁军:这是一种信念。但我需要纠正一下,一个极简的方程能产生复杂的现象,这是其中一种形态,不是全部。迭代能产生那个曼德布洛特集合的复杂图案出来,似乎很多奥秘都在里边了,那是一种形态,但世界的复杂性在于,除了决定论意义上的基本规律,经过相互迭代、相互作用形成的复杂性之外,还存在随机性,真正的随机性。时间、空间相互作用产生无穷无尽的可能性,这是世界为什么有意义的地方——世界永远有无穷无尽的复杂性,永远有全新的可能性,绝对的不朽是没有的。

甲小姐:这种不可解释、无法监管,除了人工智能,你在别的学科里感受过吗?

黄铁军:没有。我说的无法解释不是阶段性的问题,而是一种本质性。真正的智能系统是无法解释的。首先,人类的复杂性是有上限的,我们要对人类解释世界的能力有边界感。其次,当我们谈论智能的复杂性时,“不可解释”是比“解释”更第一性的存在。解释总是追着不可解释往前发展,不可解释的出现才是世界进步的第一性。

甲小姐:既然它不可解释、无法监管,又这么不确定,那此刻AI最应该投入人力、物力的是什么地方?

黄铁军:不可解释、不可把控的未来,大家是很担心的。但是我认为即便我们能完全把控的未来,其实也是充满风险的。发展到一定阶段就停止,这是一种选择;出现了就不断地向前进化发展,这是另一种选择。这确实是人类要做的选择题。不同人肯定有不同看法。但“如何选”并不等于世界就会“如何发展”。

甲小姐:让人工智能比人更强大或者让人工智能对人类绝对安全,非要让你二选一,你选哪个?

黄铁军:你非要让我选,我会选“更强大”,这是不可阻挡的趋势,无论我是否主动选择。

甲小姐:「甲子光年」有对科技发展三大基本规律的判断。第一条就是科技有不可逆性,科技自有它的发展方向,但凡一个更契合需求的强大科技是可行的,它就会活下来。

黄铁军:或者从正面的角度来看,如果我们选择不做,是否能解决掉未来的所有问题?我们人类面临很多挑战。

甲小姐:人类面临很多挑战,没必要过分执着于人和AI的关系?

黄铁军:是的。只靠人类肉身的智慧与进展去应对挑战,速度可能是非常慢的。危险到来时,我们可能无力应对巨大的挑战。如果地球上出现更强的智能以及能提出可行的解决方案时,我们不应该拒之门外。

甲小姐:既然如此,为什么当时你还在那封暂停巨型人工智能研发6个月的公开信上签字?

黄铁军:尽管它是不可避免的,但发展太快,超出我们大多数人想象的时候,需要一个缓冲的时机。太快的话,会对人类心理造成不可逆转的伤害。事实上,这正在发生。

谈未来:“人不是万物的尺度”

我们做的感知芯片比人的视觉快1000倍,它能看到很多我们看不到的东西。武林高手在它眼中就像蠕动的虫子。

甲小姐:Hinton和Sam的年龄差了一倍,他们对AI的认知和自身年龄有关系吗?

黄铁军:没什么关系。

甲小姐:一般来讲,对学科越了解的人越能祛魅,但即便你身处行业中心,在用显微镜看AI,你也依然认为AI有很强神秘感。你眼中的AI和大众眼中的AI有什么区别?

黄铁军:AI很神秘,但我的心理准备会更充分。如果有一天AI真的超越人类,我心理压力会小一些。

甲小姐:我作为大众也没有什么心理压力,我很好奇智能水平更高的世界会发生什么。

黄铁军:那是因为你还没有感受到切肤之痛。如果你失业了,或是收入突然从1万元降到1000元,你会怎么想?另外,小孩子看到AI能力这么强,能解数学题,他不想学习了,怎么办?整个社会体系都可能被冲垮。总的来说,我认为现在整个社会对AI的响应和反馈很被动,还是要有一个时段让大家好好想问题。历史虽然改变不了,但是也让我们有个接受过程也好。

甲小姐:和国内外其他AI领军者相比,你的观点代表少数人还是多数人?

黄铁军:少数人。2015年我在文章中写,AGI可能会在2045年左右实现,那时我已经有了心理准备。当时和我想法一样的人1%都不到,现在可能多一些,但我想还没超过10%。

甲小姐:大多数人的观点是什么?

黄铁军:现在有一部分人仍然不相信AGI会到来,甚至不相信AI真的有这么强大,还有人认为,人类的智能都没弄清楚,怎么能有这么强大的人工智能?传统思维方式的影响还是很大,但实际上冲击已经近在眼前。

甲小姐:什么最让你有冲击感?

黄铁军:我们总是以为人是万物的尺度,这种思维方式根深蒂固。但实际上人的智能很有局限性。我们很少反思自己的局限性,而往往放大自己的能力。AI对人类的冲击大概有几个方面——

一个是决策能力。例如,AlphaGo的决策能力远超人类。量化交易对股票市场的影响已经很大了,量化交易背后实际是AI在控制。如果智能水平继续提高,全世界的财富平衡会被打破,财富会集中到最强的AI系统中,交易的中心化程度会越来越高。

另一个是感知能力。AI感知物理信号的类型、广度和速度比人类快得多。传统的视觉芯片都是照着人的标准做的,只要人感觉满意就OK了,看电影、看电视都很连续就够了,但我们做的脉冲视觉芯片比人的视觉快1000倍,它能看到很多我们看不到的东西。人类眼中的世界对它而言是慢速的。机器人对物理世界的感知和人类根本不是一个尺度,好莱坞电影里人和机器还能打好几个回合,但实际上对机器人而言,人类的出招是慢速系统,武林高手在它眼中就像蠕动的虫子,它一巴掌就把人杀死了,人类招式根本没用。

除了决策和感知,还有以GPT为代表的数据整合能力,也足以给世界带来颠覆性影响。

我们已经到了那个时间点,不用等到AGI完全实现,AI对人类社会的影响可能就到了我们难以承受的程度。这个世界的运行已经不受我们控制了。我们也可以选择逆来顺受,做“二等公民”,也能过得很不错,经济水平提高了,大家也不用天天上班劳动了。

甲小姐:我们是否有可能在构建出比人类更强大的AI的同时,让它为我们所控制?

黄铁军:这在原理上是行不通的。早在上世纪50年代,控制论先驱之一阿什比就在《控制论导论》中提出,任何有效的控制系统都必须与它所控制的系统一样复杂。如果人类制造出来比自己更强大的AI,人类无法控制它。

甲小姐:我可以把电拔掉,或是砸坏它的主机。

黄铁军:现在这世界能拔电吗?你有什么能力把全世界的电厂全部关掉?你能想到的手段都在更强的智能系统的眼皮子底下,它用上帝视角看你所有的动作,一切都在它的设计中,就像孙悟空跑不出如来佛的手掌一样,你所有东西都在它手心里比划,有什么用?

我说的二等公民并没有贬低的意思。更强的智能系统会照顾到所有人的利益,不会侵入人类,甚至不会干预人类,让我们自由发展,我们的梦想都能实现,但所有事都是人工智能掌控的。在未来那个更大的棋局里,人类就是棋子。你接不接受?

甲小姐:现在大自然的系统也比人类强大,地震海啸来了我们也逃不了,但我们可以争取和自然和谐共处,未来人类和AI也可能是一样的。

黄铁军:我认为这有很大可能性会发生。我们可以一脚踩死蚂蚁,但我闲得没事踩蚂蚁干什么?让它正常生活呗。

甲小姐:很多人恐惧AI是因为太把AI当物种了,如果把AI当猩猩会有恐惧感,但如果把AI当电,就不会有恐惧感。AI不是公民,AI是基础设施,即便某天它可能变成世界的掌控者。

黄铁军:如果我是那个更强的智能系统,我也不会去冲垮原有的系统,反而会让整个系统更好地演化。如果未来更强大的智能系统是“不朽的”数字系统,它一定需要模拟的、“可朽的”生物的模拟系统给它不断注入新的知识。既然如此,它肯定会好好养着人类。

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多