原创技术文章,第一时间获取 谱图理论是图论与线性代数相结合的产物,它通过分析图的某些矩阵的特征值与特征向量而研究图的性质。拉普拉斯矩阵是谱图理论中的核心与基本概念,在机器学习与深度学习中有重要的应用。包括但不仅限于:流形学习数据降维算法中的拉普拉斯特征映射、局部保持投影,无监督学习中的谱聚类算法,半监督学习中基于图的算法,以及目前炙手可热的图神经网络等。还有在图像处理、计算机图形学以及其他工程领域应用广泛的图切割问题。理解拉普拉斯矩阵的定义与性质是掌握这些算法的基础。在今天的文章中,我们将系统地介绍拉普拉斯矩阵的来龙去脉。 拉普拉斯算子 理解图的拉普拉斯矩阵,要从微积分中的拉普拉斯算子说起。多元函数 例如对于三元函数f(x,y,z),其拉普拉斯算子为 很多时候我们只能近似计算导数值,称为数值微分。如果 称为单侧差分公式。对于二阶导数,有 下面考虑多元函数的偏导数。对于二元函数f(x,y),其拉普拉斯算子可以用下面的公式近似计算 如果上面的二元函数进行离散化,对自变量的一系列点处的函数值进行采样,得到下面一系列点处的函数值,构成一个矩阵 在这里x为水平方向,y为垂直方向。为了简化,假设x和y的增量即步长全为1,即 ![]() 这是一个非常优美的结果,它就是 ![]() 基于这种表示,拉普拉斯算子的计算公式可以写成 ![]() 其中 图的邻接矩阵与加权度矩阵 图是一种几何结构,对它的研究起源于古老的哥尼斯堡七桥问题。一个图G由顶点和边构成,通常将顶点的集合记为V,边的集合记为E。边由其连接的起点和终点表示。下面是一个典型的图 ![]() 图的边可以是有方向的,也可以是没有方向的,前者称为有向图,后者称为无向图。邻接矩阵是图的矩阵表示,借助它可以方便地存储图的结构,用线性代数的方法研究图的问题。如果一个图有n个顶点,其邻接矩阵W为n×n的矩阵,矩阵元素 ![]() 无向图的邻接矩阵为对称矩阵。 对于无向图,顶点的加权度是与该顶点相关的所有边的权重之和。如果无向图的邻接矩阵为W,则顶点i的加权度为邻接矩阵第i行元素之和 ![]() 加权度矩阵D是一个对角矩阵,其主对角线元素为每个顶点的加权度,其他位置的元素为0 ![]() 对于上面的无向图,它的加权度矩阵为 ![]() 拉普拉斯矩阵 在前面二元函数的例子中,一个点只与上下左右4个采样点相邻。图的顶点的连接关系可以是任意的,下面将拉普拉斯算子推广到图。如果将图的顶点处的值看作是函数值,则在顶点i处的拉普拉斯算子为 ![]() 其中 ![]() 这以推广如下图所示,图中红色的顶点是i,蓝色的顶点是它的邻居顶点,灰色的顶点是其他顶点。 ![]() 如果j不是i的邻居,则 ![]() 这里的 ![]() 上面的结论启发我们,可以在邻接矩阵和加权度矩阵的基础上定义拉普拉斯矩阵。假设无向图G有n个顶点,邻接矩阵为W,加权度矩阵为D。拉普拉斯矩阵定义为加权度矩阵与邻接矩阵之差 ![]() 由于W和D都是对称矩阵,因此拉普拉斯矩阵也是对称矩阵。根据前面的介绍,拉普拉斯矩阵实际代表了图的二阶导数。 以上面的图为例,它的拉普拉斯矩阵为 ![]() 显然拉普拉斯矩阵每一行元素之和都为0。下面介绍拉普拉斯矩阵的若干重要性质。 1.对任意向量 ![]() 2.拉普拉斯矩阵是对称半正定矩阵; 3.拉普拉斯矩阵的最小特征值为0,其对应的特征向量为常向量1,即所有分量为1; 4.拉普拉斯矩阵有n个非负实数特征值,并且满足 ![]() 下面进行证明。根据加权度 ![]() 因此结论(1)成立。根据结论(1),对任意非0向量f,有 ![]() 因此拉普拉斯矩阵是半正定的,结论2成立。由于 ![]() 将行列式的第2~n列依次加到第1列,第1列的值全为0 ![]() 因此行列式丨L丨值为0,0是L的特征值。如果f=1,则有 ![]() 因此1是特征值0的特征向量,由于拉普拉斯矩阵半正定,其特征值非负,结论(3)成立。根据结论(2)和(3)可以得到结论(4)。 假设G是一个有非负权重的无向图,其拉普拉斯矩阵L的特征值0的重数k等于图的联通分量的个数 下面进行证明。先考虑k=1的情况,图是联通的。假设f是特征值0的一个特征向量,根据特征值的定义有 ![]() 这是因为Lf=0f=0。因为图是联通的,因此所有的 接下来考虑有k个联通分量的情况。不失一般性,假设顶点按照其所属的联通分量排序,这种情况下,邻接矩阵是分块矩阵,同样地,拉普拉斯矩阵也是这样的分块矩阵 ![]() 显然每个子矩阵 ![]() 由于每个 下面举例说明。对于下面的图 ![]() 它有两个联通子图。其邻接矩阵为 ![]() 其加权度矩阵为 ![]() 拉普拉斯矩阵为 ![]() 它由如下两个子矩阵构成 ![]() 每个子矩阵对应于图的一个联通分量。0是每个子矩阵的1重特征值,由于有两个联通分量,因此0是整个图的拉普拉斯矩阵的2重特征值。两个线性无关的特征向量为 ![]() 归一化拉普拉斯矩阵 对前面定义的拉普拉斯矩阵进行归一化从而得到归一化的拉普拉斯矩阵。通常有两种形式的归一化。 第一种称为对称归一化,定义为 ![]() 在这里 ![]() 由于 第二种称为随机漫步归一化,定义为 ![]() 其位置(i,j),i≠j的元素为将未归一化拉普拉斯矩阵对应位置处的元素 ![]() 下面介绍这两种矩阵的若干重要性质。 1.对任意向量有 ![]() 2.λ是矩阵 ![]() 3.λ是矩阵 ![]() 4. 0是矩阵 5.矩阵 ![]() 和未归一化的拉普拉斯矩阵类似,有下面的重要结论:假设G是一个有非负权重的无向图,其归一化拉普拉斯矩阵 应人民邮电出版社的邀请,明天晚上8点钟(2021.4.6)将由《机器学的数学》的作者作“概率论在机器学习中的应用”的直播。为你讲述: 为什么在机器学习中需要概率论 机器学习中的概率模型概述 有监督学习中的概率模型,包括贝叶斯分类器,logistic回归,softmax回归,机器翻译问题 无监督学习中的概率模型,包括高斯混合模型,t-SNE数据降维算法,隐马尔可夫模型,概率图模型 强化学习中的概率模型,包括马尔可夫决策过程 数据生成模型中的概率模型,包括基本的随机数生成算法,生成对抗网络,变分自动编码器 我们将从数学的角度为你讲述这些方法的原理,剖析它们的本质。下面是观看直播的信息 |
|
来自: 西北望msm66g9f > 《编程》