分享

又一场 AI 寒冬即将来袭 ?

 猫熊飞飞 2019-02-13

作者:Thomas Nield是商业顾问、技术开发员、作家和演讲师。


还有,深度学习是否已经遇到了瓶颈?


1965年突破性的“MAC Hack VI”国际象棋程序


许多人认为,算法能以认知意识超越人类。机器可以在没有人类干预的情况下了解和学习任务,并大规模替换工人。它们实际上能够“思考”。许多人甚至提出了我们是否可以将机器人作为配偶的问题。


但我今天要讨论的不是这些。如果我告诉你这个想法在20世纪60年代就已广为流传,AI先驱Jerome Wiesner、Oliver Selfridge和Claude Shannon都坚持认为这在不久的将来就会发生,你会怎么想?如果你觉得这令人惊讶,不妨看看这段视频,就会惊讶于这样的看法是何等熟悉。


会思考的机器(20世纪60年代的AI):



快进到1973年,AI的炒作和夸大适得其反。英国议会派James Lighthill爵士撰写英国AI研究方面的现状报告。该报告抨击了AI研究并没有名至实归,有负众望。值得关注的是,Lighthill还指出了专门的程序(或人)其表现如何比对应的“AI”系统更胜一筹,AI如何在实际环境中没有前景。因此,英国政府取消了AI研究经费。


Lighthill争论(1973年):



大洋彼岸,美国国防部在AI研究方面投入巨资,但后来因几个同样令人沮丧的因素而取消了几乎所有经费:过分夸大AI能力,高成本却没有回报,以及AI在实际世界中的价值令人怀疑。


20世纪80年代,日本满怀热情地在“AI”方面进行了大胆的尝试,启动了“第五代项目”(英国AI研究在20世纪80年代确实再次如火如荼,启动了Alvey项目,以应对日本)。然而,这到头来又是损失8.5亿美元的结局。


第一场AI寒冬


80年代末出现了AI寒冬,这是计算机科学界的一段黑暗时期:“AI”研究迟迟拿不出成果,又面临沉没成本,众多组织和政府饱受打击。这种失败使AI研究停滞了数十年。


促动这些公司的常常是错失恐惧症(FOMO)而不是实际的使用场合,担心被自动化的竞争对手甩在后面。


到了1990年代,“AI”成了一个肮脏的词,这种状况持续到2000年代。人们普遍认为,“AI根本不行”。编写貌似智能的程序的软件公司会使用“搜索算法”、“业务规则引擎”、“约束求解器”和“运筹学”之类的术语。值得一提的是,这些宝贵的工具的确来自AI研究,但由于未能实现更宏伟的目标,它们被改头换面了。


但在2010年前后,情况开始发生了变化。人们再次迅速对AI产生了兴趣,图像分类方面的竞赛备受媒体关注。硅谷拥有大量的数据,第一次有足够的数据足以使神经网络变得有用。


到2015年,“AI”研究占据了许多《财富》500强企业的巨额预算。促动这些公司的常常是错失恐惧症(FOMO)而不是实际的使用场合,它们担心被自动化的竞争对手甩在后面。毕竟,让神经网络来识别图像中的对象简直令人印象深刻!对于门外汉来说,接下来肯定就是天网(SkyNet)功能了。


但这果真是向真正的AI迈出的一步吗?还是说历史在重演,但这一回有了几个成功的使用场合?


AI到底是什么东西?


很长一段时间以来,我根本就不喜欢“AI”这个词。它模糊而不着边际,主要由营销人员而不是由科学家来定义。当然,营销和流行语对于促进积极的变革大概是必不可少的。然而,造势活动不可避免地导致混淆。我的新华硕智能手机有一项“AI铃声”功能,可以动态调节铃声音量,以便刚好盖过环境噪音。我猜,实际上用一系列“if”条件语句或简单线性函数来编程的东西可以称为“AI”。


有鉴于此,“AI”的定义广受争议可能就不足为奇了。我喜欢Geoffrey De Smet的定义,他表示AI解决方案针对答案不确定的问题及/或误差范围不可避免的问题。这包括从机器学习、概率到搜索算法的一大批工具。


还可以说,AI的定义在不断发展,只包括突破性的发展,而过去的成功(比如光学字符识别或语言翻译系统)不再被认为是“AI”。因此,“AI”是相对的术语,而不是绝对的。


近些年来,“AI”常常与“神经网络”联系在一起,神经网络也是本文的重点。外面有其他“AI”解决方案,从其他机器学习模型(朴素贝叶斯、支持向量机和XGBoost),到搜索算法,不一而足。然而,神经网络可以说是目前最热门、最大肆炒作的技术。如果你想进一步了解神经网络,我在下面发布了这段视频。


一个简单的神经网络:



如果你想了解更深入全面的解释,不妨在此看看Grant Sanderson关于神经网络的精彩视频系列。


视频4. 神经网络到底是什么东东?

链接:https:///aircAruvnKk


AI复兴?


2010年之后AI重新大肆炒作,完全是由于AI驾驭一类新的任务:分类。更具体地说,正是由于神经网络,科学家们开发出了高效的方法对大多数类型的数据进行分类,包括图像和自然语言。连自动驾驶汽车也对任务进行分类,周围道路的每个图像都转化成一组独立的动作(踩油门、刹车、左转和右转等)。为了大致了解其工作原理,不妨看看这个教程(https:///ZX2Hyu5WoFg),它介绍了如何制作视频游戏AI。


不过在我看来,自然语言处理比单纯的分类更令人印象深刻。人们很容易相信这种算法有感知能力,但如果你仔细研究算法,会发现它们依赖语言模式,而不是依赖有意识构建的想法。这可以带来一些有趣的结果,比如可以为你诱捕骗子的这些机器人。


视频5. Re:scam

链接:https:///jPajqAJWiNA


自然语言处理方面最杰出的成就可能非Google Duplex莫属,它让你的Android手机可以替你打电话,具体来说进行预约。然而你要考虑到:谷歌完全为了完成这个任务而训练、构造甚至硬编码这个“AI”。当然,Google Duplex有停顿,有“啊”和“嗯”等语气词,听起来很自然……但这同样通过语音模式方面的操作来实现,而不是通过实际的推理和思考。


视频6. Google Duplex:AI助理打电话给本地公司进行预约。

链接:https:///D5VN56jQMWM


这一切都非常惊艳,肯定有一些实用的用途。但我们确实需要调低期望值,停止夸大“深度学习”功能。不然,我们可能发现进入了另一场“AI寒冬”。


历史在重演


纽约大学的Gary Marcus写过一篇引人关注的文章,阐述深度学习的局限性,并提出了几个发人深省的观点(这篇文章蹿红后他又写了一篇同样引人关注的后续文章)。Rodney Brooks整理了年表,密切跟踪他对AI炒作周期的预测,预测到2020年我们会看到“深度学习时代已结束”这样的新闻标题。


怀疑论者通常有几个主要的观点。神经网络需要大量数据,即使在今天,数据也是有限的。这也是为什么你在YouTube上看到的“游戏”AI例子常常需要好几天玩游戏不断失败,直到神经网络找到一种让它可以获胜的模式。


神经网络之所以“深”,是因为它们从技术上来说有几层节点,不是因为它对问题深入理解。这些层也使得神经网络难以理解,甚至对开发人员来说也是如此。最重要的是,当神经网络大胆进入其他问题领域(比如旅行推销员问题),它们会遇到回报减少的问题。这是有道理的。明明一种搜索算法极其简单、高效、可扩展且成本低,为什么我要用神经网络来解决旅行推销员问题(如下面视频所示)?


视频7. 旅行推销员问题-可视化算法

链接:https:///j1s69yf4a9Y


使用模拟退火(simulated annealing)等搜索算法来处理旅行推销员问题。


我也不会使用深度学习来解决其他日常的“AI”问题,比如解数独或将大事列入时间表。


当然,有人希望神经网络适用于更多的问题领域;虽然这值得关注,但神经网络似乎很少比任何专门的算法更胜一筹。


麻省理工学院(MIT)的Luke Hewitt在这篇文章(http://thinkingmachines./blog/unreasonable-reputation-neural-networks)中可谓一针见血:


仅仅基于一项任务,凭直觉了解一台机器普遍有多智能,或者它具备多强大的智能,这是个坏主意。20世纪50年代的跳棋机器让研究人员感到惊讶,许多人认为这是向人类水平推理的巨大飞跃,不过我们现在意识到,在这个游戏中达到人类或超人类的水平远比达到人类水平的一般智能容易得多。事实上,连最优秀的人也很容易被采用简单启发法的搜索算法打败。在一项任务中达到人类或超人类的表现,不一定是通向大多数任务中接近人类的表现的垫脚石。


我认为同样值得指出的是,神经网络需要大量的硬件和能量才能进行训练。我认为这并不具有可持续性。当然,神经网络预测的效率比训练高得多。然而,我确实认为人们对神经网络的期待需要不断的训练,因此需要指数级的能量和成本。当然,计算机的速度越来越快,但芯片制造商在摩尔定律失效后能艰难度日吗?


最后要考虑的一点是P vs NP问题。简单来说,证明P=NP将意味着我们算出超难问题的解决办法(比如机器学习、加密和优化)的速度几乎与证实它们的速度一样快。这种突破将大大增强AI算法的能力,可能会将我们的世界改造得面目全非。


这个视频解释了P vs NP问题,花10分钟观看很值得:


视频8. P vs NP和计算复杂性

链接:https:///YX40hbAHx3s


解释P vs NP问题。


遗憾的是,自这个问题正式提出50年后,更多的计算机科学家开始相信P不等于NP。在我看来,这是我们可能永远克服不了的AI研究方面的巨大障碍,因为这意味着复杂性将始终限制我们的能力。


由于这些原因,我认为另一场AI寒冬即将到来。2018年,越来越多的专家、文章、论坛帖子和博主提出了这些限制性。我认为这种怀疑的声音在2019年会有增无减,最早会在2020年成为主流。许多公司仍然不惜费用获得最优秀的“深度学习”和“AI”人才,但我认为许多公司早晚会意识到深度学习并不是它们需要的。更糟糕的是,如果贵公司没有谷歌那样的研究预算、博士人才或从用户处收集的庞大数据,可能很快发现你的实际“深度学习”前景非常有限。


视频9. Jian Yang:识别热狗的应用程序。

链接:https:///vIci3C4JkL0


每一场AI寒冬来临之前,科学家会夸大其发明成果的潜力。声称他们的算法能很好地完成一项任务不够。他们希望该算法能适应任何任务,或者至少让人有这样的感觉。比如说,AlphaZero是一种更好的国际象棋算法。媒体的反应是“天哪,强人工智能来了。每个人躲起来!机器人来了!”然后科学家们懒得纠正这种说法,实际上鼓励媒体使用更精巧的词语。毕竟,遏制预期对VC融资没有帮助。但尽管存在机器人方面的限制,AI研究人员还是为算法赋予人性,这有其他原因,这部分放在末尾介绍。


下一步是什么?


当然,不是每一家使用“机器学习”或“AI”的公司实际上都在使用“深度学习”。一位优秀的数据科学家可能被雇来构建神经网络,但当他真正研究问题时,改而构建朴素贝叶斯分类器更合适。对于成功地使用图像识别和语言处理的公司来说,它们会继续乐此不疲地这么做。但我确实认为,神经网络在那些问题领域之外不会取得太大的进展。


过去的AI寒冬对于推动计算机科学的发展是毁灭性的打击。值得指出的是,这种研究带来了实用的成果,比如可以在国际象棋中获胜或者以最低的成本解决交通问题的搜索算法。简而言之,已出现了常常擅长处理某一项任务的创新算法。


我想说的是,许多类型的问题有许多成熟可靠的解决方案。为了避免遭遇AI寒冬,你最好把试图解决的问题具体化,了解其本质。之后寻找这样的方法:提供一条直观的路径,以便获得解决这个特定问题的方法。如果你要对文本消息进行分类,可能应该使用朴素贝叶斯。如果你要优化交通运输网络,可能应该使用离散优化。不管来自同行的压力有多大,你都可以以相当怀疑的态度来对待复杂的模型,质疑它是不是正确的方法。


但愿本文清楚地阐明了这一点:深度学习并不是适合大多数问题的方法。天下没有免费的午餐。别试图为你的所有问题寻找一种通用的AI解决方案,因为找不到这样的解决方案。


我们的想法果真是点积吗?哲学vs科学


我想在本文中提出的最后一点更具哲学性而非科学性。我们的每一个想法和感觉只是以线性代数方式相乘和相加的一堆数字吗?事实上,我们的大脑只是整天进行点积(dot product)操作的神经网络吗?这听起来几乎像毕达哥拉斯哲学,将我们的意识简化为数字矩阵。也许这就是为什么如此多的科学家认为强人工智能是可行的,因为人类与计算机没有什么不同。


如果你不认可这个毕达哥拉斯哲学,那么你能做到的就是让AI“模拟”让人觉得它有情感和思想的动作。翻译程序不懂中文。它通过寻找概率模式来“模拟”懂中文的错觉。当你的智能手机“识别”狗的照片时,它是否果真识别得了狗?还是说它看到的是之前看到过的数字网格?

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多