分享

人工智能的去向

 天承办公室 2020-04-07

作者/尼克

早年曾任职哈佛和惠普;后来创业投资,创办数知科技,常往返于大陆和硅谷之间。无论忙闲不忘读书写字,作品多发表于《上海书评》,并有著作《UNIX系统V内核剖析》《哲学评书》和《人工智能简史》。

如果我们把大脑神经元数量、能源消耗、学术出版物总数、人工智能融资金额与算力的增速做个对比,可以看到一个有趣的现象,能源消耗的增长速度比大脑神经元数量的增长速度更快,而学术出版物总数的增长速度又比能源消耗的增长速度更快;人工智能融资规模与算力的增长速度相当,均高于其他几个维度的增速。

{%}

图 脑神经元数量、能源消耗、学术出版物总数、人工智能融资金额与算力的增速

2016年 AlphaGo 对李世石的胜利引起了新一轮对超级智能的讨论,焦点是将来会不会有一个全新的物种在智能上全面超越人类。牛津的哲学家博斯特罗姆(Nick Bolstrom)在 2014 年写了本未来学的著作《超级智能》,讲到了人类在面临不断发展的机器时代的存在危机。物理学家霍金和企业家马斯克都附和博斯特罗姆的立场。

畅销书《未来简史》(Homo Deus: A Brief History of Tomorrow)的作者、另类历史学家赫拉利(Yuval Harari)为这个潜在的新物种起了个有意思的新名,叫“神人”(Homo Deus),恰是这本书的英文书名。“神人”就是超级智能的主体。赫拉利真像是人工智能界安插在人文学科里的“托儿”,在潜伏期到了之后,出现得真是时候。历史学家本来应是总结过去的,但赫拉利却偏要预测未来。赫拉利的前一本书《人类简史》从七万年前的认知革命一直讲到当下,为《未来简史》做了铺垫。用不同的时间颗粒度看待过去,会得到不同的结论。《尤利西斯》中的几个小时,茨威格作品中人物的一生,或赫拉利的七万年,关心不同的过程。颗粒度也可以是主体的,一个基因,一个人,一个群体,不一定非得是一个小的物质颗粒只配得上小的时间单位。想想基因人类学,基因在几万年的空间分布,帮我们了解人类的起源和迁移。当用太大的颗粒度研究历史时,历史学家的用处会令人质疑,那本该是初中历史课本的使命,任何结论都不会令人惊奇。

在人工智能研究的早期,就有 AI 和 IA(智能辅助 Intelligent Assistant,或智能增强 Intelligence Augmentation)之分。而人工智能又有强弱之别,强人工智能是说机器会全面达到人的智能,强人工智能有时也会和“通用人工智能”(Artificial General Intelligence)同义;而弱人工智能是说机器会在某些方面达到人的智能——AlphaGo 就是弱人工智能的代表。目前不会再有人质疑弱人工智能了,但强人工智能立场的主张者却面临各种挑战,其中之一是不同智能功能的整合。机器人可以比人更快地跑步,更好地下棋,更准确地识别语音和图片。如果功能整合是可能的,那我们可以想象,比如谷歌的 AlphaGo 整合了 IBM 的沃森(Watson),除了下棋赢人类,还能通过美国行医执照考试。更进一步,如果把这个混合物架在波士顿动力公司(Boston Dynamics)的机器狗上,它还能 5 秒就跑个百米。到底是感知更难还是认知更难,这又是一个长话题。曾经有人说,人对机器的最简单控制就是断电,但现在最简单的扫地机器人也知道快没电时找回基座充电。把人工智能教科书中的 n 种智能功能整合起来(例如下棋、图像识别、语音识别、规划等),是不是就会达到强人工智能或者超智能?

目前人工智能系统功能的单一性会不会只是一种错觉?乐观主义者会认为弱 AI 向强 AI 的过程是个进步的过程,虽不是一夜之间。《终极算法》(Master Algorithm)的作者代表了一类乐观主义者,他认为会有一种统一的终极的机器学习算法,只要机器按照这个算法一直学下去,某一天就会超过人类。他给出的五类算法是进化的、连接主义的、符号的、贝叶斯的和类比的。作者的研究领域是如何把这些算法统一起来。我们不禁怀疑,即使把这些算法都能整合起来,是不是就构成了终极算法呢?难道不会有新的算法被发明出来吗?例如作者列的单子里明显缺失了强化学习,这是一个很老的算法,在 2016 年随着 AlphaGo 才得以扬名。有些机器学习的从业者缺乏对计算理论的了解。他们不知道面对这样的问题应该怎么办。“终极算法”的提倡者应该借鉴图灵机和丘奇-图灵论题这样令人信服的理论方法。悲观主义者的立场正在退缩:在每一个单独的领域,都有可能超越人类,不一定会在整体全面超越人类。如果这个整合的整体在我们可以想到的各个方面都超过人类,那我们如何对付这个新时代的“弗兰肯斯坦”。

人工智能作为学科,经历了几次大起大落。每一次的高潮都是一个旧哲学思想的技术再包装,而每一次的衰败都源自高潮时期的承诺不能兑现。这一次的浮夸轮到了机器学习,被压制多年的机器学习研究者们号称,尽管机器学习是人工智能的子学科,但很快就会独立,并且会比人工智能更宏伟。他们说人工智能是让机器达到人的水平,而机器学习是让机器超过人的水平。这倒是一个省事的赶超。还有人宣称甚至科学家的职业也将会消失——因为机器可以学得更快,但计算机科学家例外。我倒是怀疑计算机科学家是不是现在就应该组织工会。日本第五代计算机的失败似乎从来没有发生过。历史学家都忙着参与预测未来,当下是一个不需要总结教训的时代。 AlphaGo 在输给李世石的那个晚上,可以在自己和自己不断对弈的过程中学习并克服自己的弱点。无论对错,机器学习的速度确实有可能快过人类进化的速度。

过去的机器旨在节省人的体力,现在的机器开始代替人的智力。人通过两性繁殖的进化速度远远赶不上机器。机器的进化速度服从摩尔定律——每 18 个月性能提升一倍,而人的进化速度则是 20 年一代人。人作为物种,是不是不再具备进化的竞争优势?依靠硬件的摩尔定律,是不是可以达到超级智能?

新的智能存在可以是人工智能的“主体”(agent),也可以是生物学意义上的物种。2016 年夏,在美国公共电台(Public Radio)热议的一个话题是,通过修复一个受精卵的一小段染色体,就可以避免或治疗某种疾病。这是一个真实的伦理问题,因为已经有这样的病例发生。如果孩子出生,那么他/她的父母是谁?反对方的理由也很简单,多小算是“一小段”,1%还是49%?甚至更进一步:可不可以有更多不同来源的基因参与?英国《经济学人》2017 年 2 月的一期封面标题就是“Sex and Science”,基因编辑是热门话题。这种“转基因”疗法如果目的不是为了治病,而是作为物种改良的手段,人类可以接受吗?

图灵在 1936 年那篇文章“论可计算的数”中证明了图灵机和其他计算装置的等价性,并由此有了所谓丘奇-图灵论题,也就是说任何计算装置都等价于图灵机。这个论题不是数学定理,但却是整个计算机科学的基础。这个论题隐含着强人工智能的可能性:智能等价于图灵机。近年,也有人探索超计算(hyper-computation):计算能力超越图灵机的装置。量子计算作为超计算的一种潜在设备,被彭罗斯用来论证人的智能要超越图灵机。

不懂计算理论的历史学家如赫拉利以及未来学家如博斯特罗姆,分不清“超计算”(hyper-computing)和“超级计算”(super-computing),自然也分不清“超智能”和“超级智能”(super-intelligence)。其实,他们所谓的“超级智能”早就被数学家和密码学家古德(Irving John Good)在 20世纪 60 年代想过了,只不过那时“超级智能”被古德称为“智能爆炸”或Ultra-intelligence,或“超人智能”。古德是图灵在布莱彻里庄园和后来曼彻斯特大学时的小伙伴。他于 1967 年 7 月 7 日从英国搬到美国,曾戏言他是“第七个年代,第七年,第七月,第七日,第七时到达黑堡的第七街区的,纯属偶然”。古德后来加入了美国电影艺术与科学学会,因为他为大导演库布里克(Stanley Kubrick)1968 年的经典科幻片《2001 太空漫游》(2001:A Space Odyssey)担任过科技顾问。而他本人的原型也出现在 2014 年的以图灵为主角的历史题材电影《模仿游戏》(Imitation Game)里。

维纳曾经说:“我们最好能够确认我们给机器设定的目的确实是我们想要的目的。”物理学家改行的科幻作家阿西莫夫曾提出机器人三定律,第一条就是机器不能伤害人,但“什么是伤害”本身就不好定义。AlphaGo 战胜李世石和柯洁,算是对他们的伤害吗?即使是科学家兼幻想家,也未必就能把不远的未来想明白。维纳和阿西莫夫可能都不懂计算理论。

{%}

古德(1916—2009)

图灵在 1950 年那篇被广为引用的文章“计算机与智能”的结尾处说:我们只能看到当下,但看见的这些就够我们忙活的了。这真是实干型科学家和揣度型历史学家(speculative historian)的区别。

 

{%}

《人工智能简史》全面讲述人工智能的发展史,内容几乎覆盖人工智能学科的所有领域,不仅包括技术概念,哲学问题,还有很多有趣的轶事。视野宏阔,语言也是别具特色。

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多