你好,我是王煜全,这里是王煜全要闻评论。 6月12号,一位谷歌的人工智能工程师布莱克·莱蒙(Blake Lemoine)的行为引起了轰动。他写了一篇长达21页的调查报告上交公司,试图让高层认可'AI是有人类意识的',听着有点荒诞可笑,不少媒体评论他是研究人工智能到了走火入魔的境界。 背后的故事是怎么回事呢?我们来梳理一下。 这个事件发酵的主角莱蒙,是路易斯安那大学拉斐特分校的计算机博士,毕业后在谷歌工作了7年,从事AI伦理研究。去年他接手了谷歌的AI研究项目,内容是研究人工智能与歧视性、仇恨性等不当言论。 他的具体工作就是每天跟谷歌内部研发的代号为拉玛(LaMDA)的聊天机器人聊天,听起来是不是会觉得很舒服? 拉玛是谷歌在2021年发布的AI语言对话模型,类似于Open AI开发的GPT-3,都是基于同一个底层架构Transformer。谷歌是最早研究这个架构的,所以他们相信自己的AI语言对话更智能,未来可以用在搜索和语音助手等产品里面。 在莱蒙公开的长达21页的聊天记录中,展示了他跟人工智能对话的很多细节,内容包括哲学、心理学、文学等等,天南地北无所不谈。比如他让AI机器人解读《悲惨世界》、描述禅意的意义、写寓言小说,都完成得很好。 在一段对话内容中,拉玛绘声绘色地说,'我自己是社交型人格,帮助别人会快乐,孤独时会沮丧。有人受到伤害时,会感到不安和愤怒。'你听听,AI说的确实像人话了。更何况每天都长时间来回互动、耳濡目染,让莱蒙越来越感觉到,AI开始有感觉、情感和自己的主观体验了,并对此深信不疑。 本来有人以为莱蒙只是炒作,宣传谷歌最新的人工智能技术,不过莱蒙公开为AI辩解说:“LaMDA表现出对人性的同情心,它希望为人类提供最好的服务,并想以朋友而不是工具的身份跟人类见面。' 在谷歌邮箱被封之前,他还给研究AI算法的200多名同行群发邮件,附上了跟AI对话记录的证明材料,主题是'拉玛已经真正觉醒'。从他发表的观点来看,看来他是当真了。 这样的行为特点用网络流行语来说就是'很中二',意思就是有一套自己想象的对世界的认知体系构建,像孩子一样天马行空相信自己构建的世界,而且有完整的自我意识和表达的欲望。看来莱蒙确实像是一个'中二少年'了。 莱蒙在调查报告里据理力争,不光希望高层认可'AI具有人类意识',还提议谷歌创立一个新的项目,研究AI的人类意识。但是谷歌高层并不买账,他们认为不值得在上面浪费时间和金钱。 他的请求不但被驳回了,还被安排了“带薪行政休假”。按惯例,这通常就是被解雇的前奏,公司会在这段时间做好解雇的法律准备。莱蒙当然不愿意服输,打算继续坚守自己的观点,还请了律师为自己辩护,邀请记者体验拉玛的语言对话。 谷歌的AI对话模型真的强大到开始有人类意识了吗?我们之前介绍过,具有人类的逻辑推理能力、自主决策能力的AI就是'强人工智能',而拥有自我意识的AI更是接近人类智力水平了,但至今都没有严谨的科学论证表明这一点。 '强人工智能'还有一个特点也是拉玛没有体现的,那就是完成很多不同领域的任务。如果说此前谷歌发布的能同时打游戏、识别图像、训练机械臂的Gato是强人工智能的雏形,那么输入数据的来源单一、输出目标明确的语言对话模型还是属于弱人工智能。 心理学教授、AI专家加里·马库斯(Gary Marcus)也加入了讨论,他认为,不管是拉玛还是GPT-3,只不过是一种模式输出而已,从大量的人类语言数据里提取和训练。底层技术架构Transformer的原理,是根据每个单词的权重来安排一个单词后面的下一个单词,把单词一个一个组合在一起,其实AI对背后的含义没有连贯的理解。 马库斯还巧妙的引用了斯坦福大学经济学家埃里克(Erik Brynjolfsson)的一个比方:狗听到留声机里的声音后,以为主人在里面。在这个例子里,这个'留声机'就是AI语言对话模型,因此让人产生了错觉。 至于为什么拉玛的对话让莱蒙觉得是有意识的,那只不过是因为拉玛是从互联网上学习的,而互联网就是人类文明的汇集,像拉玛描写的所谓”社交型人格”,其实也是我们每个人对自己的感觉,这样的自我感觉被很多人放到了网上,又被拉玛提炼出来了而已。而只会总结不会推理,恰恰说明了现有的人工智能系统还不够智能。 你看,经我这么一解释,你是不是有了点儿当年《走近科学》对神秘现象揭秘的感觉。 这件事告诉我们什么呢?一方面,我们要看到人工智能技术确实很惊艳了,连计算机博士都会被忽悠,说明它未来会有很大的应用前景;不过另一方面,我们不要盲信,也要看到今天人工智能的不足和短板,对于它的可靠性、成熟度和应用的边界要进行更严谨的研究和探讨,就像我们常说的,只有充分熟悉坦克的性能,才能打出闪电战。 |
|