【导读】图表示学习,是2018年火爆全球的一个深度学习方向,从以Line, meta-path等为首的节点表示学习,到以GCN,GraphSAGE,为首的图卷积方法,在到近期的以GraphVAE为首的生成图模型,图表示学习方向的文章如过江之鲫。在昨天的AAAI 2019 Tutorial环节,来自Facebook AI Research 的 William Hamilton 和加拿大蒙特利尔算法研究所的Jian Tang 跟大家交流了图表示学习的当前进展。 【报告简介】 图上的机器学习,是一项很重要且普遍存在的任务,无论是社交网络上的朋友推荐还是化学药物上的分子式的链接,都能从中获益。目前这个领域的主要挑战是找到一种方法来表示或者编码图的结构,一遍机器学习模型能够轻松利用它们。传统的机器学习方法依赖于用户定义的启发式模型来提取关于图的结构信息的特征编码(例如,度统计或核函数)。然而,近年来,使用基于深度学习和非线性降维的技术,自动学习将图形结构编码为低维嵌入的方法激增。在本教程中,我们将对图表示学习领域的主要进展进行技术介绍,包括基于矩阵分解的方法、基于随机游走的算法、图神经网络和图生成模型。在此过程中,我们开发了一个统一的框架来描述这些最新的方法,并强调了涉及大规模社会和生物网络的实际应用。 【报告人简介】 William HamiltonFacebook AI Research William Hamilton (wlh@fb.com) 目前是Facebook AI Research的访问学者,McGill大学计算机系助理教授. 2018年博士毕业于斯坦福大学。 他的研究兴趣是图表示学习与大规模社会网络计算。 Jian TangMontreal Institute for Learning Algorithms Jian Tang 目前是加拿大蒙特利尔算法研究所(Montreal Institute for Learning Algorithms )和HEC Montreal的助理教授. 2014年博士毕业于北京大学,2014-2016在任微软研究院研究员,2016-2017年在密歇根大学和卡内基梅隆大学做博士后。 【报告内容简介】 【节点表示学习】 【图神经网络】 【图生成模型】 【未来方向】 |
|
来自: LibraryPKU > 《机器学习》