分享

深度学习透析

 hghhphf 2017-06-13

?【下载】2015中国数据分析师行业峰会精彩PPT下载(共计21个文件)

机器能像人一样拥有学习能力吗?




人工智能”这个概念是1956年达特茅斯会议上提出的,它是一个很宽泛的概念,初衷就是让机器像人类一样思考,可以胜任一些需要人类智能才能完成的复杂工作。如果把人类的智能比作一枚皇冠的话,那么皇冠上的明珠就是人的学习能力。正是因为我们人类拥有学习的能力,让我们可以从呱呱坠地,到咿呀学语,到长大成人,不断成长和进化,去适应这个社会。可以说这个学习的过程,就是我们人类的智能形成和发展的一个过程,那么问题就来了,机器可以拥有像我们人类一样的学习能力吗?


于是,人工智能的一个分支学科“机器学习”就诞生了。正如AI先驱Arthur Samuel所述,机器学习是“让计算机有能力在不需要明确编程的情况下自己学习”的研究领域。也就是说,让机器自主或半自主地学习优化处理数据的过程。常用的机器学习算法有:决策树、随机森林、逻辑回归、朴素贝叶斯分类、马尔可夫、支持向量机等。


机器学习的常用算法有很多,具体要用哪种,很大程度上取决于现有数据集及其特征、具体的应用场景和特定的任务。其中有一种方法叫“深度学习”,是当下最受热棒的。所以说,“人工智能”、“机器学习”、“深度学习”这三者之间是相互包含的同心圆关系



深度学习是如何工作的?


深度学习这个“当红辣子鸡”为什么会迅速蹿红呢?下面我们得好好扒一扒了。


在深度学习算法没出来之前,我们要实现图像识别、语音识别、自然语言理解、天气预测、内容推荐等任务,是通过这样的流程来执行的:先通过传感器获得数据,然后进行数据的特征提取和特征表达,最后把表达出来的特征放到学习算法中进行推理、预测或者识别。以图像识别为例,比如我们现在输入一个摩托车的图像,我们先通过特征提取器分离它的特征,比如它有轮子、车座、手把、脚蹬、排气筒等,然后把这些特征放到分类器中进行分类的学习,让机器识别它是不是一辆摩托车。



这种方法有什么问题呢?人工设计提取的特征没有办法保证在任何情况下都能准确识别,比如摩托车的形状、大小、颜色、造型各不相同,观察的角度、背景、光线等也会影响它呈现的样子,这样我们很难写出一套“放之四海皆准”的规则来告诉机器具备什么样的特征就一定是摩托车。更何况即使我们写出了这样的规则,也只是针对摩托车这一个品类,世间万事万物,难道我们能针对每一类对象都提炼一种规则吗?


于是就引出了深度学习,它的灵感最初是来自于仿生学。小时候我们开始认识这个世界,父母告诉我们“这是人”、“这是车”,在并没有掌握详尽特征规则的情况下,我们通过训练和反馈来学习。于是科学家们就模拟人脑构建出了软件的“神经元”,然后把若干层“神经元”相互连接形成了“神经网络”,“深度”学习就是这么来的。以识别人脸为例,当神经网络接收到数据输入时,它首先感知到的是像素,然后连接成边缘,再之后形成人脸的局部——鼻子、眼睛等,最后抽象出整张人脸,这和人脑的神经生物学过程如出一辙,即通过抽象和迭代完成视觉功能。



如果说机器学习是把数据优化的任务交给机器来完成,那么深度学习就是把特征提取的任务也交给了机器,而且机器完成得比人更好。深度学习的训练是一个“端到端”的过程,给神经网络输入大量有标注的数据,对神经元之间的连接进行调整,使输出的结果不断接近标注的正确值。


深度学习的应用为什么会在现在爆发呢?有三方面原因:


  数据 


深度学习的训练离不开大规模数据集,无处不在的智能手机和传感器使数据的产生呈爆炸式增长,给深度学习提供了“燃料”。


  算力 


GPU的并行计算能力非常适合加速深度学习,大幅减少神经网络的训练时间,成为深度学习的“发动机”。


  算法  


深度学习的神经网络结构不断演进迭代,CNN(卷积神经网络)、RNN(递归神经网络)、LSTM(长短期记忆模型)的应用带来了越来越好的算法结果。


有了深度学习以后,图像和语音识别的错误率大幅下降,机器的识别能力接近并超过了人类的水平。于是学术界的热情被点燃了,工业界沸腾了,最疯狂的还是投资人,捧着大把资金蜂拥而至,深度学习的应用有如摧枯拉朽一般在各个行业中蔓延开来。


深度学习包打天下?先看看它的局限性再说


深度学习大热以后,有人把人工智能等同于深度学习,认为它可以解决一切问题。其实深度学习虽然神通广大,但是也不能包打天下,我们必须要正视它的局限性。


  “黑箱”问题


传统的机器学习算法基于逻辑或概率,可以给出清晰的决策依据,而深度学习的内部网络却是“黑箱”,不具备可解释性。如果出现误判,无法找到问题根源进行调整,在一些对安全性要求较高的应用场景中(如驾驶、医疗等),这是很难被接受的。


  “长尾”问题


深度学习网络之所以智能是因为它见过的数据可以覆盖90%以上的情况,但是针对某些极端特殊情况它就处理不了了,特斯拉自动驾驶出事故就是因为数据集中没有出现过横着的大货车,“天才”与“弱智”之间往往只有一线之隔。


  没有常识


人的智能除了体现在根据当下的状态做出决策外,还可以结合背景知识做常识判断。但是机器没有先验知识,没有能力基于常识做推断和联系,目前人们正在尝试把深度学习和知识图谱相结合去解决这个问题。


  数据的约束


训练深度学习需要大规模、有标注的数据。现实应用中当特征比较多的时候,即便我们看来很大量的数据,也会变成非常稀疏的“小数据”,无法“喂饱”深度学习,得不到好的算法结果。另外,很多专业领域的数据需要交给行业专家来标注,这样的数据更是少之又少,对很多创业公司来说是无法逾越的障碍。


  计算能力的约束


神经网络的训练需要大规模并行计算,一个创业公司训练深度学习的时间成本取决于它可以构建和调用的GPU资源。即使训练好的模型,在实际布署中,也需要根据终端的计算承载能力去压缩和适配,远远不是只把demo跑好那么简单。


事实上,深度学习这一波的“大火”只是在涉及到计算机视觉、语音识别和一部分自然语言处理相关的任务中表现出优势。真正的智能涉及到很多方面,感知、认知、推理、知识、规划、沟通等等,深度学习在感知方面取得了突飞猛进的进展,但对其他问题还不能很好地解决,需要越来越多地和其他算法相结合。


深度学习的未来


近几年人们也在探索各种各样的新的学习方法,让深度学习更加智能。


  监督学习 

  Supervised Learning


监督学习就是告诉机器特定输入的正确答案,让机器去学习。这是目前被广泛采用的方法,但是需要大量有标注的数据,因此具有一定的局限性。


  无监督学习

  Unsupervised Learning


无监督学习就是在没有外界指导的前提下,通过自身的观察和体验了解世界的运作规律,这是人类和其他动物具备的一种比较高级的智能。对机器来说,就是在不给出输入输出之间映射关系的 情况下,让机器去寻找数据本身的规律。无监督学习目前尚处在研究早期阶段,这是当前制约人工智能发展的主要瓶颈之一。


  半监督学习

  Semi-supervised Learning


半监督学习本质上是监督学习和无监督学习的结合,利用监督学习的标记信息,利用未标记数据的内在特征,在数据缺乏标注的情况下具有很大的应用价值。


  强化学习

  Reinforcement Learning


强化学习是一种基于与环境互动的目标导向的学习。机器做出一个动作或一系列动作后,从外界环境中获得反馈,如果行动正确,则有相应的奖励机制强化行动选择。


第一代AlphaGo主要通过围棋高手的对弈棋谱来学习,那时它的棋风和人类还比较相似。而第二代AlphaGo则更多地采用自己和自己对弈互搏,通过决策结果的反馈不断强化自己的智能,所以柯洁才会觉得它越来越像围棋上帝。


  迁移学习

  Transfer Learning


迁移学习就是把一种任务或场景中学习到的能力迁移到另一种相似或相关的任务或场景中去,也就是让机器像人类一样拥有举一反三、融会贯通的能力,难怪吴恩达把迁移学习比作推动人工智能进步的下一波驱动力。


这些有益的探索越来越多地向我们展现了人工智能应用的可能性。目前的人工智能仍然是专用于解决特定问题的弱人工智能,通用的强人工智能离我们还很遥远。机器智能与人类智能最大的差别在于是否具有自我意识。《未来简史》的作者尤瓦尔·赫拉利说,人类社会发展了上万年,一直是智能和意识共同进化,现在是人类历史上第一次面临大规模的智能、意识的分离,这才是我们面临的最大挑战。


    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多