原文摘要: 现在是 2022 年 1 月,LeCun 表示自己仍然没有看到猫级别的人工智能。他表示,尽管「只有」8 亿个神经元,但猫脑远远领先于任何巨大的人工神经网络。因此乍一看,关于通往高度发展的认知能力和人类智能长期规划途径的推测似乎毫无意义。 猫和人类智能的共同基础是对于世界的高度理解,基于对环境的抽象表示以形成的模型,擅长于预测行动及其后果。LeCun 认为,学习这种环境模型的能力是构建思考机器的关键。 在对目前行业和科研进展的分析后,LeCun 得出了 AI 研究面临的三大挑战: AI 必须学会对于世界的表征; AI 必须能以和基于梯度的学习兼容的方式,进行思考和规划; AI 必须学习行动规划的分层表征。 LeCun 在自监督学习中找到了第一个挑战的解决方案,该方法已被用于训练语言模型、图像分析系统等。 LeCun 表示,人工智能系统可以从这些视频中理解世界的物理基础。它们的理解反过来将让系统具备多种能力(例如抓取物体或自动驾驶)的基础。 今天的 AI 可以轻松对图像进行分类并识别声音,但不能执行诸如推理不同对象之间的关系或预测人类运动等任务。这是无监督学习可以填补空白的地方。正如 LeCun 所说:「预测是智力的本质。」 解决第一个挑战为解决第二个挑战奠定了基础。与人工智能最初的研究不同的是:思维系统不应再由根据逻辑规则运行的符号系统和手动编程的世界知识组成。相反,必须使用和深度学习类似的方法让机器学会思考和规划。 LeCun 还没有解决第三个挑战的方法。他说:「要在现实世界中行动的人工智能系统,无论是机器人还是自动驾驶汽车,必须要能够预测每种行动的后果并选择最佳行动。在一些情况下,例如移动机械臂或控制火箭的任务上,我们已经实现了模型预测控制(MPC)。」 原文:图灵奖得主Yann LeCun最新访谈:人工智能面临的三大挑战 《人工智能大势》点评: 在前不久写的文章《点评 | 焦李成院士:进化优化与深度学习的思考》中,我刚对杨立昆(Yann LeCun)说的话大加赞赏,主要是称赞他最近的讲话与我2019年的文章有同样的观点,即造飞机不能完全按照鸟翅膀的生物机理去造,造人工智能也不能完全按照人脑的生理机能去造,杨立昆不愧是人工智能界最高水平的学者之一。 但是这次我恐怕要批评他了,因为他的话似乎有些矛盾。 智能的本质并不是预测,预测只是智能这种人脑基本能力的实际应用之一而已。 正如同样也是我前不久写的一篇文章,《点评 | 方向对了?MIT新研究:GPT-3和人类大脑处理语言方式惊人相似》 ,文中写到:
由此可以看出,我们的大脑在很多时候确实是在做预测,但绝不应认为预测就是大脑思维的全部,当然也就更不是大脑智能的本质,而只是智能的一种表现形式。 那么什么是智能的本质呢? 杨立昆其实也已经说到了,那就是“理解”,对这个世界以及各种事物的理解,这才是智能的本质,即他说的:
很显然,预测是建立在理解基础之上的,没有理解,就不可能有预测。你看见别人手里拿着个馒头,如果你不理解馒头是用来充饥的,你就不会预测他接下来会把馒头吃了。 这种“理解”并非像他说的那么简单,不只是“基于对环境的抽象表示以形成的模型”,比如对蛋糕的理解,不只是形状、颜色、味道等,还包括它常常用来庆祝生日,以及上面有奶油、卡路里很高、不利于减肥、吃太多对健康不好,但小孩子都喜欢吃等等,且这种理解是随时随地不断在发展变化的,例如你可能刚听别人说而知道了蛋糕上的奶油有真假之分,把所有这些相关的信息综合在一起,才是对“蛋糕”一词的完整理解。 当然,你也可以说这些全部都包含在他所说的“模型”中,但我似乎看不出这点。 我上面说“没有理解,就不可能有预测”,其实也不完全对,准确说这是对人,而机器并非如此,正如杨立昆说他找到了“机器学会对于世界表征”的解决方案,即:
人工智能目前确实能在很大程度上进行较准确的预测,但它是基于大规模数据的统计。这种没有理解、通过机器学习所得到的预测能力就必须任何事情都要依靠大数据,而不能像人一样很多时候只需要小数据就可以达到目的。比如大人对小孩说:不要靠近外面的野狗,它们会咬你。那么小孩就明白了,这种明白就是基于对“咬”的理解,知道这会有什么后果,而不需要去反复尝试(获取大量数据)才能学会这一道理。 所以,杨立昆并没有真正找到第一个挑战的解决方案,只有解决了理解问题,才能算解决了第一个挑战。 他说“解决第一个挑战为解决第二个挑战奠定了基础”是正确的,不过解决第二个挑战,即思考和规划同样应基于对事物的理解,想必这没有什么疑问,故不是仅靠现在的深度学习就可以解决。但应依靠机器自己学习是正确的,“思维系统不应再由根据逻辑规则运行的符号系统和手动编程的世界知识组成”,即不应由人手动为机器输入知识,而应靠机器自己学习来获得相应知识,这一点同样也是毫无疑问。 杨立昆说“还没有解决第三个挑战的方法”,即没有解决“AI 必须学习行动规划的分层表征”,这完全在预料之中。所谓“行动规划的分层表征”,是指复杂的行动规划需要分成若干阶段,这对人类来说都不是一件轻而易举的事,机器如果没有对事物的理解,自然是不可能解决这一问题,甚至就如杨立昆所说,连方法都找不到。 而之所以我们“仍然没有看到猫级别的人工智能”,也就是因为机器还没有对事物的真正理解。 我们一定要建立一个观点,那就是“大数据很重要,但大数据并非一切”。或许理论上任何事都可以通过大量的数据统计来实现,但就如上面所说,很多事情是不能去试的,不能让小孩被狗咬了才能学会不能被狗咬,甚至需要无数次被狗咬才能学会就更加荒谬。在文章《点评 | 焦李成院士:进化优化与深度学习的思考》中我也表达了同样观点:
这里所说的痛苦可不是一般的痛苦,灾难也不是普通灾难,往往都是灭顶之灾,稍有不慎,人类就可能灭亡了。 但如果机器有了对事物的理解能力,通过阅读、交流或轻微损伤等方式获取相关知识,能够知道被咬、灾难、战争等等会带来什么后果,那么这样的问题就迎刃而解了。 所以,归根到底就是要解决机器对事物的理解这一终极挑战。 |
|
来自: 菌心说 > 《AI、人工智能、神经网络、深度学习》