纽约时间2019年3月27日,美国计算机协会(Association for Computing Machinery,简称 ACM)将2018年度的图灵奖颁发给了Yoshua Bengio,Geoffrey Hinton和Yann LeCun。三人因为在深度学习领域的突破性研究,被称为“深度学习三巨头”。 Yoshua Bengio,Geoffrey Hinton和Yann LeCun,因为其在概念和工程方面的突破,使得深度神经网络成为计算领域的重要组成部分,评为2018年ACM AM图灵奖的获奖者。
Hinton,LeCun和Bengio独立工作,共同开发了深度学习领域的概念基础,通过实验确定了令人惊讶的现象,并贡献了工程进展,证明了深度神经网络的实际优势。近年来,计算机视觉,语音识别,自然语言处理和机器人技术以及其他应用领域频频取得突破,深度学习方法是背后原因。 虽然早在20世纪80年代,学界就引入了人工神经网络,作为帮助计算机模式识别和模拟人类智能的工具,但到了21世纪初,LeCun,Hinton和Bengio仍然是坚持神经网络方法的少数人。虽然他们试图重燃AI社区对神经网络兴趣的努力最初曾遭受怀疑,但他们的想法近年来导引发了重大技术进步,他们的方法现在已成为人工智能领域的主流范例。 ACM AM图灵奖,通常被称为“计算机界的诺贝尔奖”,由Google提供资金支持,奖金为100万美元。它以英国数学家Alan M. Turing的名字命名,图灵发现了计算机的数学基础和及其运行限制。 “人工智能现在是所有科学领域中发展最快的领域之一,也是社会上最受关注的话题之一,”ACM主席Cherri M. Pancake说。“人工智能的增长和兴趣在很大程度上归功于Bengio,Hinton和LeCun在深度学习上的最新进展。相关技术已经被数十亿人使用。任何有智能手机的人都可以体验到自然语言处理和计算机视觉方面的进步,这在10年前是不可能实现的。除了我们每天使用的产品之外,深度学习的新进展为科学家提供了强大的新工具——从医学,天文学到材料科学。“ “深度神经网络促成了现代计算机科学的一些最大进步,帮助在计算机视觉,语音识别和自然语言理解方面的长期问题上取得实质性进展,”Google高级研究员兼Google AI 副总裁 Jeff Dean说。“这些进展的核心,是30多年前由Yoshua Bengio,Geoffrey Hinton和Yann LeCun开创的基础技术。通过大幅提高计算机理解世界的能力,深度神经网络不仅改变了计算领域,而且几乎改变了科学和人类努力的每一个领域。“ 在传统计算任务中,程序使用明确的逐步指令来控制计算机。在深度学习中,计算机没有明确被告知要如何解决特定任务,比如对象分类。相反,它使用学习算法来提取数据中的模式,这些模式将输入数据(例如图像的像素)与所需的输出(例如标签“cat”)相关联。研究人员面临的挑战是开发有效的学习算法,以修改人工神经网络中连接的权重,从而使得这些权重捕获数据中的相关模式。 Geoffrey Hinton自20世纪80年代初以来,一直倡导人工智能机器学习方法的研究了人类大脑如何发挥作用来建议机器学习系统的开发方式。受大脑的启发,他和其他人提出“人工神经网络”作为他们机器学习调查的基石。 在计算机科学中,“神经网络”指的是,由“神经元”这种的相对简单的计算单元组成的系统。这些“神经元”只与人类大脑中的神经元相似,通过加权连接相互影响。通过改变连接权重,可以改变神经网络所做的计算。Hinton,LeCun和Bengio认识到了使用深层神经网络的重要性——他们的工作被称为“深度学习”。 LeCun,Bengio和Hinton在30年期间奠定的概念基础和工程进步因强大的图形处理单元(GPU)计算机的普及以及对大量数据集的访问而得到显着提升。近年来,这些和其他因素导致了计算机视觉,语音识别和机器翻译等技术的跨越式发展。 Hinton,LeCun和Bengio一起独立合作。例如,LeCun在Hinton的监督下进行了博士后工作,LeCun和Bengio从20世纪90年代初开始在贝尔实验室工作。即使不合作,他们的工作也会产生协同作用和相互联系,他们彼此之间的影响很大。 Bengio,Hinton和LeCun继续探索机器学习与神经科学和认知科学的交叉,特别是通过他们共同参与CIFAR(以前称为加拿大高级研究所)的一项计划机器和脑力学习计划。 今年图灵奖获得者的技术成就,导致人工智能技术取得重大突破,包括但不限于以下内容:
反向传播算法:在1986年与David Rumelhart和Ronald Williams共同撰写的“通过误差传播学习内部表征”(Learning Internal Representations by Error Propagation)一文中,Hinton证明了,反向传播算法能够让神经网络发现自己内部数据的表征方法,这使得使用神经网络可解决的问题范围大大拓宽。反向传播算法是当今大多数神经网络的标准算法。 Boltzmann机:1983年,Hinton与Terrence Sejnowski一起,发明了Boltzmann机,这是第一个能够学习神经元内部表征的神经网络之一。 改进卷积神经网络:2012年,Hinton与其学生Alex Krizhevsky和Ilya Sutskever,使用线性整流和丢弃正则化,改进了卷积神经网络。在著名的ImageNet竞赛中,Hinton和他的学生将对象识别的错误率几乎减半,这重塑了计算机视觉领域。
序列的概率模型:在20世纪90年代,Bengio将神经网络与序列的概率模型相结合(如隐马尔可夫模型)。这些想法被纳入了手写支票识别系统中,被认为是20世纪90年代神经网络研究的巅峰之作,现代的深度学习语音识别系统正在扩展这些概念。 高维词汇嵌入和注意力机制:2000年,Bengio撰写了具有里程碑意义的论文“神经概率语言模型”,它引入了高维词嵌入表示词语含义。Bengio的见解对自然语言处理任务产生了深远影响,包括语言翻译、问答和视觉问答。他的团队引入了“注意力机制”,这引发了机器翻译的突破,并成为用深度学习进行序列处理的核心步骤。 生成式对抗网络:2010年以来,Bengio关于生成性深度学习的论文,特别是他与Ian Goodfellow共同开发的生成式对抗网络(GAN),引发了计算机视觉和计算机图形学的革命。这项工作的一个著名应用是,计算机可以创建出逼真的图像,仿佛拥有了人类智能才特有的创造力。
卷积神经网络:在20世纪80年代,LeCun就开发卷积神经网络,这是该领域的基础研究。卷积神经网络优点很多,它使深度学习变得更加必要。20世纪80年代末,LeCun在多伦多大学和贝尔实验室工作期间,率先在手写数字图像上训练卷积神经网络系统。如今,卷积神经网络是计算机视觉及语音识别、语音合成、图像合成和自然语言处理的行业标准。它们有各种应用,包括自动驾驶、医学图像分析、语音助手和信息过滤。 改进反向传播算法:LeCun提出了反向传播算法(backprop)的早期版本,并根据变分原理对其进行了简洁推导。他推动反向传播算法的工作包括给出了两种加速学习时间的简单方法。 拓宽神经网络的视野:LeCun拓展了神经网络的应用范围。他让神经网络成为可以完成多种不同任务的计算模型,他在早期引入的一些工作,现在已成为人工智能领域的基础概念。例如,在识别图像的领域,LeCun研究了如何在神经网络中学习分层特征表示——这个概念经常在识别任务中出现。LeCun与Léon Bottou一起,提出了“学习系统可以被构建为由模块组成的复杂网络”,这些模块通过自动微分来执行反向传播算法——这成为了当今深度学习程序通用的想法。他们还提出可以处理结构化数据(如图数据)的深度学习架构。
|
|