|
要更深刻的理解一个事物,我们可以从以下几个视角分析。功能——这东西有什么用,历史——这东西是如何从最开始演化到今天的,机制——这东西的物理机制是什么,成长——这东西是怎么长出来的。这篇文章的标题把大脑叫做演化史,而人工智能叫进化史。是因为我们的大脑并不是一个由更高意志的上帝或更高等级的物种设计出来的,而是从最基本的单核细胞经过数十亿年的基本突变、环境选择演化到这一步的,大脑的很多功能结构可能不合理、不够高效,经过自然选择,成为现在的样子。人工智能是由人类创造的,要特定的改进路径。可以说人类扮演了上帝角色,只是人类最初创造了人工智能,可能后续人工智能到一定阶段可以自己进化,不断超越人类。 一、大脑的演化史 我们再来回顾下大脑的结构,经过数十亿年的演化,大脑变成现在的模样确实显得很神奇,很多人认为这么精密的智能结构,一定是谁设计出来的。 ![]() 地球诞生于46亿年前,在大约40亿年前,原本没有生命的地球上,机缘巧合下,在海洋深处的某个火山口附近,一些大分子聚集在一起,形成了一个比较长的分子链,这个分子链就是最早的DNA,这个DNA分子链能自我复制。但是这个DNA分子链暂时还不能称为最早的生命,它需要得到一层脂质气泡,把DNA包裹起来,提供保护,这个就是细胞的雏形。后续演化,细胞中有了蛋白质,能让细胞动起来,并提供一定的感知能力。大约过了5亿年,即距今35亿年前,从细胞的雏形演化出来了一个单核细胞叫LUCA,意思是现今地球生命的最后共同祖先。2016年,德国杜塞尔多夫大学的科学家威廉·马丁(William Martin)分析了现存地球生物600多万个基因的DNA序列,从中确认有355个基因广泛存在于全部主要的生物门类中。根据这项研究,马丁推测,这355个基因应该同样存在于现在地球生物的最后共同祖先(last universal common ancestor,LUCA,见下图)体内,并且因为它们有着极端重要的生物学功能,从而得以跨越接近40亿年的光阴一直保存至今。 ![]() LUCA是一个厌氧生物,基于当时地球的环境,它呼吸的是氢气,能量来源于氢气。大约25亿年前,LUCA突变成了蓝绿菌,蓝绿菌学会了光合作用,能将阳光和二氧化碳变成葡萄糖和氧气,并将葡萄糖作为能量存储起来慢慢用。在差不多一亿年的时间内,蓝菌制造了如此之多的氧气,以至于它们自己都受不了了。这是因为氧气很容易让组成细胞的物质氧化,从而加速衰老。大约24亿年前的那次大增氧事件,被科学家称为氧气大屠杀。而就在这个时候,有些细胞突然基因变异出了有氧呼吸,能把氧气和糖转化为能量,把二氧化碳作为废气。这样一来有氧呼吸和光合作用就形成了互补:一个减少氧气,增加二氧化碳;一个产生氧气,消灭二氧化碳。它们达成平衡,地球的大气成分才能稳定,生命才能长存。 ![]() 如上图所示,光合作用的细胞吸收阳光和二氧化碳,排放出氧气并在身体内保持葡萄糖。他们争夺的是阳光,这是一种相对温和的竞争。而有氧呼吸细胞,吸收的是氧气和葡萄糖,葡萄糖则需要从其他生物中来。因此生物的多样性演化开始,吃与被吃成为地球的主旋律。大约20亿年前,可能也是在机缘巧合下,一个细胞吞噬了另外一个细胞,这个被吞噬的细胞在大细胞内生存了下来,演化成了真核生物。如下图所示,真核生物是当今地球上所有植物、真菌和动物的共同祖先(都是多细胞生物)。 ![]() 各种蘑菇都属于真菌,它吃的是腐烂生物身体。动物则不一样,它们要吃新鲜的,需要直接吃掉其他生物,在自己体内进行消化。这就要求动物要有装食物的地方——胃;会捕猎的动作——肌肉;有判断力——神经元(要实现高级智能的基础)。所有神经元的工作方式都一样,靠电信号传递,传播速度快,单方向传播。后续神经元的演化方向只是不同的连接方式,基本构成没有变化。大约6亿年前,演化出最早的动物珊瑚虫。如下图所示珊瑚虫的构成很简单,胃,肌肉和神经元。珊瑚虫采取的守株待兔捕食法,食物的入口和消化排泄口为一个口。 ![]() 大约5.5亿年前,地球上的第一个大脑出现,它是一种两侧对称动物,是现今所有有大脑动物的祖先。我们大脑的基本功能跟它没有本质区别。包括现在的人、猩猩、鱼的大脑基本功能都相同。核心功能都是要解决出去找葡萄糖吃的问题。下图是辐射对称动物与两侧对称动物的对比,珊瑚虫是一种辐射对称动物,现在地球上99%的动物是两侧对称动物。辐射对称动物都没有大脑,是一种去中心化神经元分散布置的智力,周身都要布满传感以应对四面八方的环境。 ![]() 第一个两侧对称动物是线虫,线虫的基本构成是大脑、肌肉、胃、嘴和屁股,吃和排分开了。线虫只有嗅觉,没有眼睛。它会判断好坏食物,即意味着线虫大脑的神经元已经具备正负评价机制。会平衡决策,前方有食物,但是有危险,去还是不去。对自身状态能感知,饱还是饿,要不要去觅食。就像巴浦洛夫效应一样,狗对喂食人员的摇铃会产生条件反射,这其实就是动物的学习。5.5亿前的线虫也可以在环境中学习,会权衡选择最大概率的线索。吃饱了游的慢,感到威胁就快速游动。威胁刚消失,还会持续快游一段时间,这是一种被恐惧的情感笼罩的结果。最早的大脑就具备情绪能力,这种碰到好事高兴,坏事担心的情绪应该有助于物种生存才得以一直保留下来。线虫大脑也会分泌多巴胺和血清素,多巴胺刺激想要去做什么事,而血清素提供满足感,感到很享受,可以停止追逐。线虫进入战斗状态,大脑分泌肾上腺素,给肌肉提供能量,暂停生殖、免疫等功能。如果威胁持续时间长,线虫会分泌血清素,让线虫躺平。可能在这种持续威胁环境下,躺平是最佳策略。线虫作为第一个大脑,实现了动物大脑的第一次跃迁。 大约5亿年前,大脑实现了第二次突破,演化出脊椎动物大脑。现代的蜜蜂、螃蟹、蚂蚁都属于无脊椎动物,鱼、各种爬行动物、哺乳动物都是脊椎动物。脊椎动物大脑有皮层、基底神经节、丘脑、下丘脑、中脑、后脑、还有海马体。脊椎动物大脑能感知时间长短和多巴胺多少的能力,可以量化感知多巴胺。多巴胺越多,你就知道好事的可能性越高,动力就越大。 ![]() 19世纪心理学家爱德华桑代克研究动物是怎么学习的,用小猫、小狗甚至鱼做实验,设计了一系列的笼子、迷宫,发现动物是试错学习,通过摸索找到成功方法并记住。1950年第一波AI浪潮,就有人借鉴这种方法,设计神经网络算法用试错法学走迷宫,下棋,玩游戏。这套方法的核心是先随便试,赢了给奖励,输了给惩罚,这就是人工智能里面的强化学习。脊椎动物大脑的多巴胺是进行强化学习的关键,多巴胺是对好东西的预期,好东西预期距离时间越近,概率越高,多巴胺释放越多。线虫也有多巴胺,但与脊椎动物不同,线虫无法感知时间长短和多巴胺多少的功能。 大约3.75亿年前,可能是为了争夺阳光,海底的植物开始进军陆地。随后植物遍布整个地球,二氧化碳变少了,地球变冷,海洋结冰,又一次富氧造成生物大灭绝。很多动物离开海洋去了陆地,这些动物演化出了肺,能在空气中呼吸,并逐渐演化出温血和冷血动物。 ![]() 2.5亿年前又出现了一次物种大灭绝,持续500-1000万年,96%的海洋生物,70%陆地生物灭绝。因为食物稀少,温血动物很多也灭绝了,冷血爬行动物存活了下来,演化出了恐龙。恐龙是当时地球最强大的冷血动物,为了在恐龙世界生存,温血动物体型越来越小,只能住在洞穴里。在恐龙统治环境下生存,温血动物的后代哺乳动物要学会两种本领:视力要好看得远、捕食能够提前策划,一击即中。特别是第二个本领,要求哺乳动物大脑能够有想象力,能在大脑中模拟预演。鱼和爬行动物就没有这个能力。哺乳动物所具备的想象力是大脑的第三次突破,在大脑结构上演化出了新皮层。大脑新皮层各处的神经元及组织方式完全一样,相当于通用计算能力,是靠出生后后天学习确定新皮层每个区域的功能。新皮层实现的是一种无监督学习,可以先读取一半信息,自己再生成另外一半信息(想象),再自己与实际素材进行比较,对了就加强,错了就改正。而鱼由于没有新皮层,没有想象能力,只能实现前面说的强化学习。 ![]() 大约6600万年前,大概率是小行星撞击地球,恐龙灭绝。哺乳动物得以更加自由的活动,在1500万年前,灵长类动物的大脑新皮层中演化出新的颗粒状前额叶皮层,这是大脑的第四次突破。它能让灵长类动物有一项新能力,将自身放入情境中进行模拟,以第三人称看自己。会模拟自己就会模仿别人,掌握了模仿学习,会做计划,会知其所以然。大约10万年前,人类的祖先掌握了语言,这是大脑的第五次突破。科学家推测这很可能是人的FOXP2基因变异造成人类大脑的布洛卡区域更大带来的能力,人类的布洛卡区域明显远大于黑猩猩,黑猩猩无法发出人类复杂的声音。 ![]() 以上是粗线条的概述大脑的演化历史,我们来小结下几十亿年来大脑的五次阶段性突破:
从这五次突破来说,我们可以看到大脑有一个学习能力不断增强的清晰主线。学习能力的提升不仅驱动了个体的生存适应,也成为了群体和物种竞争成功的重要因素。我们人类虽然奔跑速度、体力不是最好的动物,但在学习能力方面是最强的。从最初的情绪功能激发条件反射到强化学习(奖励与延迟的感知),再到基于想象力的无监督学习。模仿学习与计划能力让学习从个体化走向群体化,知识传播的效率大幅提高,最后通过语言的进化,促进群体知识积累和传承,让知识产生复利。沿着这个路径,未来个体学习能力将进一步提升,结合人工智能的工具化学习,个体可能通过脑机接口等方式直接访问和处理海量信息。学习能力将进一步增强,尤其是从直接体验转向“数据驱动的元学习”,即通过分析大规模数据找到最优学习路径。群体学习的智能化与网络化,通过科技连接更多个体(例如物联网、脑联网),使人类社会的学习能力更紧密协作。知识的代际传递效率进一步提升,知识壁垒逐步减少,形成“超级群体智能”。人与AI的融合学习,AI的进步可能引导人类从单纯教AI学习,走向人机协同,共同探索未知领域。人类与AI的合作或将创造一种新型“物种”,具备超越人类个体和当前群体的学习能力。 二、AI的进化史 AI的进化过程伴随着人类对大脑的研究发现,同时对AI的研究又反过来促进了人类对大脑的理解。1956年,29岁的约翰麦卡锡(创立了斯坦福大学的AI项目)邀请香农、明斯基、纽厄尔、西蒙等牛人在美国达特茅斯学院召开了一次有历史意义的会议,第一次将人工智能命名为AI(Artificial Intelligence),人工智能的目标是创造具有智能的机器。在达特茅斯的研讨会上,不同领域的参会者对采用何种方法来研究人工智能产生了分歧。数学家提倡将数学逻辑和演绎推理作为理性思维的语言;另一些人则支持归纳法,这是一种运用程序从数据中提取统计特征,并使用概率来处理不确定性的方法;其他人则坚信应该从生物学和心理学中汲取灵感来创造类似大脑的程序。 从那次会议上产生了两个人工智能研究分支,分别是前面一篇《人工智能就是人脑的逆向工程》介绍的符号人工智能和亚符号人工智能。亚符号人工智能是由心理学家弗兰克罗森布拉特于1958年提出来的,其基本组成是感知机,其充分借鉴了人脑中神经元的工作原理。罗森布拉特开发的感知机用于简单图像识别任务,揭开了机器学习的序幕。 感知机的“知识”由它所学到的权重和偏置这对数值组成,这一事实,意味着我们很难发现感知机在执行识别任务时使用的规则。感知机的规则不是符号化的,不像传统编程的IF,ELSE等符号的程序,程序做了什么操作你是看得懂的。感知机的权重和偏置不代表特定的概念,这些数字也很难被转换成人类可以理解的规则。这一情况在当下具有上百万个权重的神经网络中变得更加夸张。有人可能会将感知机和人脑做一个粗略的类比。如果我能打开你的大脑,并对其中上千亿个神经元中的一部分进行观察,我可能并不能清楚你的想法或者你做某个特定决定时所用的规则。然而,人类的大脑已经产生了语言,它允许你使用符号(单词和短语)来向我传达你的想法,或者你做某件事的目的。从这个意义上说,我们的神经刺激可以被认为是亚符号化的,而以它们为基础的我们的大脑不知何故却创造了符号。类比于大脑中的亚符号化的神经网络,感知机以及更复杂的模拟神经元网络,也被称作“亚符号”派。这一派的支持者认为:若要实现人工智能,类似语言的符号和控制符号处理的规则,必须以类似于智能符号处理从大脑中涌现的方式,从类似于神经元的结构中涌现出来。 1956年后符号派占据了主流,当时人工智能的权威明斯基是符号派的代表人物,他认为亚符号是死胡同,导致亚符号派研发经费减少,研究人员少,受到冷落。此后符号派的专家诊断系统也有局限,人工智能研究进入冬天。 人工智能的寒冬给该领域的从业者带来了许多重要的经验和教训。达特茅斯学院研讨会举办50年后,麦卡锡总结出了最简单的一个教训:“人工智能比我们认为的要难。”明斯基指出,事实上,对人工智能的研究揭示了一个悖论:“看似容易的事情其实都很难。”人工智能计算机的最初目标是:计算机能够以自然语言与我们进行交谈,描述它们通过摄像头“眼睛”看到的事物,在看到几个例子之后就可以学会新的概念。这些小孩子做起来都很容易的事情,对人工智能来说却是比诊断复杂疾病、在国际象棋和围棋中击败人类冠军,以及解决复杂代数问题等更加难以实现的事情。正如明斯基所言:“总的来说,我们完全不清楚我们的心智最擅长什么。”创造人工智能的尝试,最起码帮助阐明了我们人类的心智是多么复杂和微妙。 单层感知机无法解决非线性问题(异或门逻辑无法实现),理论上多层感知机能解决非线性问题,但多层感知机由于权重和偏置参数量实在太多太大,当时无有效方法调整。对一个单层感知机和一个两层神经网络在手写数字识别任务上进行训练,两者都有324个输入和10个输出,并采用60 000个样本进行训练,然后在10 000个新样本上测试两者的表现。感知机对新样本的识别正确率大约是80%,而带有50个隐藏单元的两层神经网络对新样本的识别正确率则达到了94%。需要找到一种探测这个神经网络上的16 700个权重的有效方法。1971年,杰弗里辛顿由于对大脑原理特别痴迷,在爱丁堡大学学习实验心理学,由于亚符号派被明斯基否定,辛顿的导师自己都转向了符号派。后面辛顿去了美国认识了加州大学圣迭戈分校的鲁梅尔哈特。鲁梅尔哈特是少数几个当时还在坚持研究亚符号人工智能的学者之一,他引入了一种叫反向传播算法,解决了权重和偏置参数无有效方法调整的问题,让即使再大的神经网络算法通过算力的加持,可以高效的找到各类参数,为后续的人工智能发展打下基础。1989年辛顿的学生杨立昆在贝尔实验室,基于反向传播算法,引入了卷积网络,让AI程序学会了识别手写数字,并将这个软件卖给了一家银行用于识别手写支票。卷积网络参照了人大脑的视觉神经元网络,将图像切成众多方块,分别分析每个方块中的小图案,再构建更大的图案。 1997年IBM的深蓝电脑在国际象棋打败了卡斯帕罗夫,但是当时深蓝采取的是纯粹暴力算法,不是现在意义上的人工智能,其通过每走一步把后续所有步骤所有可能都计算一遍胜率,来确定最佳的行棋步骤。21世纪初10年,根据大脑相关研究使得深度神经网络算法发展迅速。2010年游戏爱好者黛米斯哈斯比斯创办了DeepMind,目的是构建受人脑启发的人工智能,他们从AI玩游戏开始。DeepMind将脊椎动物的强化学习方法与深度学习网络算法相结合,创建了一个能学习玩打砖块游戏的AI。经过训练,打砖块AI找到了一个狡猾的窍门,如果白色小球能够通过击除砖块从而在砖块的边缘构建一条狭窄的隧道,那么小球将能够在“天花板”和顶层砖块之间来回反弹,获得高分值而完全不用移动球拍。
2012年辛顿带领他的两名学生Alex、伊利亚赢得了Imagenet图形识别大赛,他们引入了监督学习机制,让深度网络学习算法先从带有标签的数据中学习,学习输入与输出之间的映射关系,以此来调整好网络参数权重和偏置,再进行新图片的测试,以评估图片识别的准确率。当时他们三个人组成的团队打败了谷歌等大公司,他们训练模型使用的是几块英伟达的GPU显卡,而谷歌公司则用了他们一个大数据中心的服务器算力。在比赛后,辛顿与其两个学生立刻成立了一家公司,以4400万美元的价格卖给了谷歌,三人分享了4400万美元的金额,当时参加竞标的还有百度公司。同样是在2012年谷歌利用一个拥有10亿个参数的深度神经网络,采用无监督学习方法让模型通过观看YouTube视频片段,自行学会识别“猫”的特征。这一实验结果显示,无监督学习算法能够通过从海量数据中提取关键特征,生成具有高度概括能力的标识。这项研究直接推动了深度学习在图像识别、视频处理等领域的进一步应用。2017年谷歌大脑团队发布了Transformer架构,引入了自注意力机制,通过并行数据处理大大提升了机器翻译、文本生成、问题等准确性。基于Transformer架构,2018年OPENAI发布了GPT,2020年发布了GPT3成为当时参数最大的模型,后面的事大家都清楚,这里不赘述了。 从人工智能的发展历程我们可以发现,亚符号派这个发展路线完全参照了人脑的原理进行逆向工程,从最基本的单元感知机对应人脑神经元,多层感知机对应人脑的神经元网络。采用人类所具备的强化学习、监督学习、无监督学习等方法应用到人工智能程序内,让人工智能具备了人的智力能力。参照大脑演化的五个阶段,我推测人工智能的发展趋势:从个体学习到群体学习。目前大部分人工智能模型仍然是“孤立智能”,它们依赖于单一模型或单个系统来完成任务。未来多个智能体之间的协同学习,形成一种类似于“人工群体智能”的体系,甚至宇宙级的智能网络。智能体之间不只是独立存在,而是通过信息网络相互连接,协同解决问题。人与AI融合学习,但很可能人是累赘,AI完全可以自主学习。 |
|
|