我看到过 Quora 上有用户对这个问题做过回答,大概内容是这样的: 我对这个问题有两个答案。 1.利用 GPU 来提高神经网络的准确性 当我还是个孩子的时候,我曾经抱怨说我想玩的游戏需要专门的图形处理器才能运行。研究人员现在利用同一 GPU 内众多内核的强大功能,并行加速计算并提高神经网络的预测精度。最有趣的突破是在 2010 年的 Imagenet 竞赛中,Alex Krizhevsky 和来自多伦多U的团队提出了他们的想法,用多个 GPU 来训练他们的卷积神经网络。我想我应该指出,在机器学习算法的时间尺度上,这是古老的。尽管如此,最近出现了许多突破,因此值得注意。 2.深化强化学习 这是我最喜欢的,所以我把它保存了下来。自80年代以来,神经强化学习一直存在,但他们未能产生太大的影响。直到 2015 年,David Silver 和其他人加入了深度强化学习框架之后,才将其他算法剔除出去。他们的第一个主要成就是Go玩AI,击败了9 Sed级别的职业棋手 Lee Sedol,目前在国际头衔方面排名第二。深度强化学习者的概念也被用来创建一般的玩AI游戏,并带来非常令人印象深刻的结果。这个概念也很简单。连接一个RL算法,用一个神经网络作为它的函数逼近器。使用像梯度下降这样的损失函数减少算法训练网络。通过深入介绍的 IMO 的主要变化是引入了经验重播小批量更新以减少更新步骤之间的时间相关性。 AlphaGo 是由 Google 的 DeepMind开发的AI计算机程序。它击败了传奇球员李·塞多尔,世界排名第一的柯杰和3次欧洲冠军范辉。 它使用树搜索技术和深度神经网络技术相结合来玩游戏。 AlphaGo 被设计为与不同版本的游戏进行千次比赛,这有助于理解自己的错误并纠正错误。 AlpaGo 的发展是人工智能领域的一个重要里程碑。它可以帮助科学家解决我们一些最复杂的问题,比如寻找新的疾病治疗方法,发明革命性的新材料或寻找更高效,更清洁的汽油。 了解更多硅谷前沿深度讯息请看硅发布微信公众号。 |
|