分享

图神经网络的介绍(基础,DeepWalk和GraphSage)

 taotao_2016 2019-11-03
作者:Steeve Huang
编译:ronghuaiyang

导读

给大家介绍目前非常热门的图神经网络,包括基础和两个常用算法,DeepWalk和GraphSage。

近年来,图神经网络(GNN)在社交网络、知识图谱、推荐系统甚至生命科学等各个领域得到了越来越广泛的应用。GNN具有对图中节点间依赖关系建模的强大功能,使得图分析相关研究领域取得了突破。本文会介绍图神经网络的基本原理,以及两种更高级的算法,DeepWalk和GraphSage。

在讨论GNN之前,让我们先了解什么是Graph。在计算机科学中,图是由顶点和边两部分组成的数据结构。一个图G可以由它所包含的顶点V和边E的集合很好地描述。

图神经网络的介绍(基础,DeepWalk和GraphSage)

根据顶点之间是否存在方向依赖关系,边可以是有向的,也可以是无向的。

图神经网络的介绍(基础,DeepWalk和GraphSage)

有向图

这些顶点通常称为节点。在本文中,这两个术语是可以互换的。

图神经网络

图神经网络是一种直接作用于图结构上的神经网络。GNN的一个典型应用是节点分类。本质上,图中的每个节点都与一个标签相关联,我们希望在没有ground-truth的情况下预测节点的标签。本节将说明本文中描述的算法。第一个提出的GNN常常被称为原始GNN。

在节点分类问题设置中,每个节点v的特征是x_v,并与一个ground-truth标签t_v关联。给定一个部分标记的图G,目标是利用这些标记的节点来预测未标记的标签。它学习用一个d维向量(状态)h_v表示每个节点,其中包含其邻域的信息。具体地说,

图神经网络的介绍(基础,DeepWalk和GraphSage)

其中x_co[v]表示与v相连的边的特征,h_ne[v]表示与v相邻节点的嵌入,x_ne[v]表示与v相邻节点的特征。函数f是将这些输入投射到d维空间的转换函数。因为我们正在为h_v寻找一个惟一的解,所以我们可以应用Banach定点定理并将上面的等式重写为迭代更新过程。这种操作通常称为消息传递邻居聚合

图神经网络的介绍(基础,DeepWalk和GraphSage)

H和X分别表示所有H和X的级联。

图神经网络的介绍(基础,DeepWalk和GraphSage)

H和X分别表示所有H和X的级联。

通过将状态h_v和特征x_v传递给输出函数g来计算GNN的输出。

图神经网络的介绍(基础,DeepWalk和GraphSage)

这里的f和g都可以解释为前馈全连接神经网络。L1损失可以直接表述为:

图神经网络的介绍(基础,DeepWalk和GraphSage)

可以通过梯度下降来优化。

然而,有文章指出,GNN的这一原始方法存在三个主要限制:

  1. 如果放松“不动点”的假设,就有可能利用多层感知器来学习更稳定的表示,并消除迭代更新过程。这是因为,在原方案中,不同的迭代使用相同的转换函数f的参数,而MLP不同层中不同的参数允许分层特征提取。
  2. 它不能处理边缘信息(例如,知识图中不同的边缘可能表示节点之间不同的关系)
  3. 不动点会阻碍节点分布的多样化,因此可能不适合学习表示节点。

已经提出了几个GNN的变体来解决上述问题。然而,它们没有被涵盖,因为它们不是本文的重点。

DeepWalk

DeepWalk是第一个提出以无监督方式学习节点嵌入的算法。就训练过程而言,它非常类似于单词嵌入。其动机是图中节点和语料库中单词的分布遵循幂律,如下图所示:

图神经网络的介绍(基础,DeepWalk和GraphSage)

算法包括两个步骤:

  1. 在图中的节点上执行随机漫步以生成节点序列
  2. 根据步骤1生成的节点序列,运行skip-gram,学习每个节点的嵌入

在随机游走的每个时间步长上,下一个节点均匀地从前一个节点的邻居中采样。然后将每个序列截断为长度2|w| + 1的子序列,其中w表示skip-gram的窗口大小。

本文采用层次softmax 算法,解决了节点数量大、计算量大的softmax问题。要计算每个单独输出元素的softmax值,我们必须计算所有元素k的所有e^xk。

图神经网络的介绍(基础,DeepWalk和GraphSage)

因此,原始softmax的计算时间为O(|V|),其中V表示图中顶点的集合。

层次softmax利用二叉树来处理该问题。在这个二叉树中,所有的叶子(上图中的v1 v2…v8)都是图中的顶点。在每个内部节点中,都有一个二进制分类器来决定选择哪条路径。要计算给定顶点v_k的概率,只需计算从根节点到左节点的路径上的每个子路径的概率v_k。由于每个节点的子节点的概率之和为1,所以所有顶点的概率之和等于1的性质在层次softmax中仍然成立。现在一个元素的计算时间减少到O(log|V|),因为二叉树的最长路径以O(log(n))为界,其中n是叶子的数量。

图神经网络的介绍(基础,DeepWalk和GraphSage)

经过DeepWalk GNN的训练,模型学习到每个节点的良好表示,如下图所示。不同的颜色表示输入图中不同的标签。我们可以看到,在输出图中(2维嵌入),具有相同标签的节点聚集在一起,而具有不同标签的大多数节点被正确地分离。

图神经网络的介绍(基础,DeepWalk和GraphSage)

然而,DeepWalk的主要问题是它缺乏泛化的能力。每当一个新节点出现时,它都必须对模型进行重新训练,才可以表示这个节点。因此,这种GNN不适用于图中节点不断变化的动态图。

GraphSage

GraphSage提供了一个解决上述问题的解决方案,以归纳的方式学习每个节点的嵌入。具体地说,每个节点由其邻域的聚合表示。因此,即使在图中出现了训练过程中没有出现过的新的节点,也可以用相邻的节点来表示。下面是GraphSage的算法。

图神经网络的介绍(基础,DeepWalk和GraphSage)

外循环表示更新迭代次数,h^k_v表示更新迭代时节点v的隐向量k。在每次更新迭代中,根据一个聚集函数、前一次迭代中vv邻域的隐向量以及权矩阵W^kh^k_v进行更新。本文提出了三个聚合函数:

1. Mean aggregator:

mean aggregator取一个节点及其所有邻域的隐向量的平均值。

图神经网络的介绍(基础,DeepWalk和GraphSage)

与原始方程相比,它删除了上面伪代码第5行中的连接操作。这种操作可以看作是一种“跳跃连接”,本文稍后的部分证明了这种连接在很大程度上提高了模型的性能。

2. LSTM aggregator:

由于图中的节点没有任何顺序,它们通过遍历这些节点来随机分配顺序。

3. Pooling aggregator:

这个操作符在相邻的集合上执行一个元素池化函数。下面是最大池化的例子:

图神经网络的介绍(基础,DeepWalk和GraphSage)

可以用均值池化或任何其他对称池化函数替换。池化聚合器性能最好,而均值池化聚合器和最大池化聚合器性能相近。本文使用max-pooling作为默认的聚合函数。

损失函数定义如下:

图神经网络的介绍(基础,DeepWalk和GraphSage)

其中uv共出现在固定长度的随机游动中,v_n是与u不共出现的负样本。这种损失函数鼓励距离较近的节点进行类似的嵌入,而距离较远的节点则在投影空间中进行分离。通过这种方法,节点将获得越来越多的关于其邻域的信息。

GraphSage通过聚合其附近的节点,为不可见的节点生成可表示的嵌入。它允许将节点嵌入应用于涉及动态图的领域,其中图的结构是不断变化的。例如,Pinterest采用GraphSage的扩展版本PinSage作为内容发现系统的核心。

总结

你学习了图形神经网络、DeepWalk和GraphSage的基础知识。GNN在复杂图形结构建模方面的能力确实令人吃惊。鉴于其有效性,我相信在不久的将来,GNN将在人工智能的发展中发挥重要的作用。

英文原文:https:///a-gentle-introduction-to-graph-neural-network-basics-deepwalk-and-graphsage-db5d540d50b3

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多