分享

深度学习没落了。你不知道的认知智能机器人大脑道API接口道翰天琼。

 qzuserzbyitx5c 2020-07-13

这篇文章的内容取自我编辑的电子期刊《人工智能大势》第20202047日发表。由于这部分内容特别长,且有些意犹未尽,故将其提取出来,作一些补充,独立成一篇文章。

  最近有一篇文章比较有意思,标题为《刘铁岩谈机器学习:随波逐流的太多,我们需要反思》,刘铁岩是微软亚洲研究院副院长、博士,文章是他最近一次在线公开课的演讲内容。

  这篇文章非常长,前面主要介绍微软亚洲研究院在人工智能上的一些研究成果,如对偶学习解决机器学习对大量有标签数据的依赖、解决机器学习对大计算量的依赖、深度学习理论探索、元学习的限制等,这些都是非常专业的内容,不太适合一般人看。

  不过,在该文章的最后部分对机器学习进行了展望未来,该部分内容对目前人工智能的研究做了很有意义的反思,并带领读者开阔脑洞,去展望人工智能和机器学习发展的更多可能性。对于关注人工智能的读者,有必要了解下。

  首先我们摘要文章这部分的一些主要内容,看看微软亚洲研究院是如何展望机器学习未来的(文中常说机器学习,其实主要是指深度学习):

  现在机器学习领域的会议越来越膨胀,有一点点不理智。每一年那么多论文,甚至都不知道该读哪些。人们在写论文、做研究的时候,有时也不知道重点该放在哪里。比如,如果整个学术界都在做 learning2learn,是不是我应该做一篇 learning2learn 的论文?大家都在用自动化的方式做 neural architecture search,我是不是也要做一篇呢?随波逐流、人云亦云的心态非常多。

  我们其实应该反思:现在大家关注的热点是不是涵盖了所有值得研究的问题?有哪些重要的方向其实是被忽略的?

  量子计算

  量子和机器学习理论相互碰撞时,会发生一些非常有趣的现象。我们知道,量子有不确定性,这种不确定性有的时候不见得是件坏事,因为在机器学习领域,我们通常希望有不确定性,甚至有时我们还会故意在数据里加噪声,在模型训练的过程中加噪声,以期获得更好的泛化性能。

  从这个意义上讲,量子计算的不确定性是不是反而可以帮助机器学习获得更好的泛化性能?如果我们把量子计算的不确定性和机器学习的泛化放在一起,形成一个统一的理论框架,是不是可以告诉我们它的 Trade-off 在哪里?(编者注:Trade-off,平衡点)是不是我们对量子态的探测就不需要那么狠?因为探测得越狠可能越容易 overfit(编者注:overfit,过拟合)。

  以简治繁

  深度学习是一个以繁治繁的过程,为了去处理非常复杂的训练数据,它使用了一个几乎更复杂的模型。但这样做真的值得吗?跟我们过去几十年甚至上百年做基础科学的思路是不是一致的?

  在物理、化学、生物这些领域,人们追求的是世界简单而美的规律。不管是量子物理,还是化学键,甚至经济学、遗传学,很多复杂的现象背后其实都是一个二阶偏微分方程……看起来很复杂的世界,其实背后的数学模型都是简单而美的。这些以简治繁的思路,跟深度学习是大相径庭的。

  以前的这种以简治繁的思路,从来都不认为数据是上帝,他们认为背后的规律是上帝,数据只是一个表象。

  我们要学的是生成数据的规律,而不是数据本身,这个方向其实非常值得大家去思考。……而不是简单地使用一个非线性的模型去做数据拟合。

  我们人类到底是如何学习的。到今天为止,深度学习在很多领域的成功,其实都是做模式识别。模式识别听起来很神奇,其实是很简单的一件事情。几乎所有的动物都会模式识别。人之所以有高的智能,并不是因为我们会做模式识别,而是因为我们有知识,有常识。基于这个理念,Yann LeCun 一个新的研究方向叫 Predictive Learning(预测学习)。它的思想是什么?就是即便我们没有看到事物的全貌,因为我们有常识,有知识,我们仍然可以做一定程度的预测,并且基于这个预测去做决策。这件事情已经比传统的模式识别高明很多,它会涉及到人利用知识和常识去做预测的问题。

  但是,反过来想一想,我们的世界真的是可以预测的吗?可能一些平凡的规律是可以预测的,但是我们每个人都可以体会到,我们的生活、我们的生命、我们的世界大部分都是不可预测的。

  我们猜测人类其实在做一件事情,叫 Improvisation,什么意思?就是我们每个人其实是为了生存在跟这个世界抗争。我们每天从世界里面学习的东西,都是为了应付将来未知的异常。当一件不幸的事情发生的时候,我们如何才能生存下来?其实是因为我们对这个世界有足够的了解,于是会利用已有的知识,即兴制定出一个方案,让我们规避风险,走过这个坎。

  从这个意义上讲,这个过程其实跟 Predictive Learning不一样,跟强化学习也不一样,因为它没有既定的学习规律和学习目标,并且它是跟环境做交互,希望能够处理未来的未知环境。这其实就跟我们每个人积累一身本事一样,为的就是养兵千日用兵一时。当某件事情发生时,我怎么能够把一身的本事使出来,活下去。

  群体智慧

  一个更哲学的思辨:人类的智能之所以这么高,到底是因为我们个体非常强大,还是因为我们群体非常强大?今天绝大部分的人工智能研究,包括深度学习,其实都在模仿人类个体的大脑,希望学会人类个体的学习能力。可是扪心自问,人类个体的学习能力真的比大猩猩等人类近亲高几个数量级吗?

  所以我们坚信人类除了个体聪明以外,还有一些更加特殊的东西,那就是社会结构和社会机制,使得我们的智能突飞猛进。比如文字的产生,书籍的产生,它变成了知识的载体,使得某一个人获得的对世界的认知,可以迅速传播给全世界其他人,这个社会机制非常重要,会加速我们的进化。

  再者,社会分工不同会使得每个人只要优化自己的目标,让自己变强大就可以了。各个领域里有各自的大师,而这些大师的互补作用,使得我们社会蓬勃发展。

  所以社会的多样性,社会竞争、进化、革命、革新,这些可能都是人类有今天这种高智能的原因。

  以上是文章摘要,下面说说我的观点:

  首先微软亚洲研究院勇于探索、不随波逐流的精神非常值得称赞,要有革命性的突破,就要敢于走别人、主流不走的道路,敢于成为开拓者。

  这一展望未来的最大意义在于,反思了目前深度学习并不是最好的道路,它并不能让我们走向真正的人工智能——通用人工智能,要想有质的飞跃,必须另辟蹊径。不像一些专家认为的,深度学习就是最终道路,可以解决人工智能的所有问题,比如文章《人工智能专家之间针锋相对,凸显AI未来发展的分歧与不确定性》中的丹尼·兰格(Danny Lange),他是Unity负责人工智能和机器学习的副总裁,他完全属于深度学习阵营。

  但开拓新方向的难度非常高,循规蹈矩的思维模式肯定行不通,必须要异想天开才有可能突破。

  具体到文章提出的一些观点,首先非常赞赏其拥抱不确定性的观点,我们认为这是人工智能最核心的思维方式,因为人工智能就是要让机器像我们人一样去处理非常复杂、不确定的事物,而不是只会用公式去进行机械的计算。因此,没有拥抱不确定性的思维,是不可能有高水平的人工智能研究,甚至是高水平应用也难以进行。

  但拥抱不确定性确实是一件非常难以让人接受的事情,我们总是本能地抵触不确定性,总是希望用一个简单的、确定的方法去解决问题。比如这篇文章的另一个观点,希望像物理、化学等用一个简单的方程去处理复杂的事物,比如语言,就又不知不觉滑回了摒弃不确定性的老路。但就如文章《人工智能之父揭示思维能级的秘密》中的大神,图灵奖、诺贝尔奖获得者西蒙认为数学不适合用来研究人类行为,这条老路是行不通的。

  说数学是宇宙的语言,认为任何事物都可以用数学来解决的观点,确实是值得商榷的。西蒙说数学不适合用来研究人类行为,对此非常赞同。正如有专家说,数学不适合处理自然语言,因为数学函数的连续性,与自然语言的离散性,很难协调。同理,对于这个复杂的、离散的大千世界,数学并不是包治百病的良药。换句话说,人的大脑里并没有那些高深的数学算法,比如像微积分等,有的只是简单的1+1统计,刺激多的,记忆就深刻,就强相关,就这么简单。

  诚然,深度学习以繁治繁的思路并不是最好的,但这并不代表复杂的事物可以用一个简单的方程解决,就如同牛顿的力学公式可以计算所有天体的运动轨迹(其实也有不能完全计算出来的,比如水星进动,就需要用到爱因斯坦的相对论)。事物发展是螺旋式上升,我们需要寻找简洁的方法去解决复杂问题,但此简非彼简。

  深度学习的以繁治繁的思路,就是因为原有的方法难以解决更复杂的问题,从而发展出来的新方法,这种方法比原有方法能够在一定程度上更好地解决复杂问题。虽然这种方法还不够好,但可以肯定地说,退回原有的思路和方法是更不好的。需要的是在其基础上发展出更好的方法,也许这种方法包含更简洁思路在里面,但已不是原来那种简单,而是更高级的简单过去几十年甚至上百年做基础科学的思路也许已经到了需要与时俱进、需要改革的时候了。

  以繁治繁并不是完全错误的,我们的大脑实际上就是类似的工作原理。大脑本身就是一个非常复杂的系统,而之所以人类大脑能够很好的处理世间的许多复杂性问题,应该说也正是因为其自身的复杂性。也就是说,大脑实际上就是为了去处理非常复杂的问题,而使用了一个几乎更复杂的模型。很可能以繁治繁是解决非线性、离散、复杂问题的根本方法。

  但另一方面,大脑的基本工作原理又是简单的,也正如西蒙的观点,只是根据外界刺激,用经验去应对。这一观点与微软文章的观点,我们每天从世界里面学习的东西,都是为了应付将来未知的异常因为我们对这个世界有足够的了解,于是会利用已有的知识,即兴制定出一个方案,让我们规避风险,走过这个坎,两者也是很类似的。

  就像我们上面所说,大脑中经验的积累,实际上也是简单的原理,即根据外界刺激的多寡、强弱,按照简单的统计原理,在大脑中形成神经元的联接强弱,刺激越多,联接就越强。这种简单的统计,也是大数据的原理,同时非常适合电脑进行处理。并且这也符合复杂性原理,即通过大量简单的重复,形成高级、复杂的特性,从而可以应对和解决复杂问题。

  所以,我们认为这种以简形成繁并治繁的原理是更高级的处理复杂性问题的方法,而且理论上其泛化和通用性非常好,或许就是通用人工智能的根本之路。

  所以,数据在这里就变得非常重要,就如同每个人的大脑基本结构都是一样的,但之所以你是你、我是我,你和我是不同的,其根源就在于我们所接收到的数据不同,从而形成了各种不同的思想、观念,有了人类社会的千姿百态。从这个意义上说,数据不只是表象,其蕴含了深层的规律在里面,数据就是上帝。机器学习所要做的,就是应用大数据原理,从数据中去挖掘出规律,包括常识、知识。

  一旦机器能够应用一个简单的、泛化的算法,从纷繁的大千世界和人类知识这些数据中去挖掘出规律,形成它们自己的常识和知识,不论是基于预测去做决策,还是即兴制定方案去解决临时遇到的问题,不说能够解决得十全十美,但应该可以和我们人类做得一样好,甚至超过人类。换句话说,通用人工智能的问题就解决了。

  其实,文章中把预测问题即兴解决问题对立起来是有问题的,我们人在解决世间的问题,这两种方法都会用到,也就是制定计划随机应变我们既不能因为制定了计划,就按部就班地照计划执行,即使有意外情况,也不可越雷池一步;也不能因为我们具有随机应变的能力,就不制定计划,一切问题都兵来将挡、水来土掩,都靠临时去解决。很显然,必须是这两种方法有机地结合,才有可能把所有问题都处理到一个比较好的程度(把所有问题都处理完美只能是理想)。

  就像发生在2020年初席卷世界的新冠肺炎疫情,各个主要国家想必都有应对突发疫情的预案,如果没有这样的预案,没有医疗物资的储备,如口罩、呼吸机等,那么想必最初的损失将更加惨重。

  但是,即使有再充分的准备,实际情况都有可能超出预期,甚至如这次疫情般大大超出预期,那么这时就必须要随机应变,根据具体情况进行调整,做出新的方案。就像中国很快做出封城的决定,在很短的时间里建起火神山、雷神山医院,以及十几个方舱医院,全国十几个省市、上万医护人员火速增援湖北、武汉,全国停工、停学,所有人戴口罩等等措施,这都是史无前例的。但正因为有这样快速、果断、彻底的应变,使得中国能够在很短的时间里将疫情控制,把损失降到最低程度,成为世界抗击疫情的典范。

  反观其它欧美发达国家,如美国、英国等,其医疗体系无疑是世界上最先进的,他们应对疫情的预案也肯定是所有国家中最完善的,但就因为对于远超出预期的突发情况不能随机应变,不能像中国这样果断采取措施,从而导致受到的损失远远高于中国。

  不论是计划还是随机应变,都离不开常识和知识,没有这两样,任何事情都做不了。人工智能要想把复杂事情做好,也必须具有常识和知识,且必须是机器自己去学习所获得常识和知识,不是靠人工去给它输入,否则有多少人工,才有多少智能,终究只是人工,不是智能。

  文章最后是关于群体智能的思考,不过这一观点更加值得商榷。仅举一例,在文字、书籍出现之前,人类就已经具有很高的智能水平了,不然也不可能发明出文字和书籍。当然,文字、书籍、社会分工等会促进智能的提高是毫无疑问的。

  总之,人工智能还处在发展的婴儿期,很多问题,包括根本性的问题,都还没有解决。我们切不可固步自封、不思进取,一定要多反思,开阔视野,勇于探索前人没有走过的路,才有可能让人工智能,这一将主宰人类未来终极命运的科技,取得突破,跃上新的台阶!

解、存储、应用为研究方向,以感知信息的深度理解和自然语言信息的深度理解为突破口,以跨学科理论体系为指导,从而形成的新一代理论、技术及应用系统的技术科学。 认知智能的核心研究范畴包括:1.宇宙、信息、大脑三者关系;2.人类大脑结构、功能、机制;3.哲学体系、文科体系、理科体系;4.认知融通、智慧融通、双脑(人脑和电脑)融通等核心体系。 认知智能四步走:1.认知宇宙世界。支撑理论体系有三体(宇宙、信息、大脑)论、易道论、存在论、本体论、认知论、融智学、HNC 等理论体系;2.清楚人脑结构、功能、机制。支撑学科有脑科学、心理学、逻辑学、情感学、生物学、化学等学科。3.清楚信息内涵规律规则。支撑学科有符号学、语言学、认知语言学、形式语言学等学科。4.系统落地能力。支撑学科有计算机科学、数学等学科。

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多