一、样本均值与样本方差
假设有以下数据:
以下定义了数据的样本均值与样本方差: 接下来需要对样本均值与样本方差进行一些变换来获得其另一种表示形式: 中心矩阵 因此最终可以得到 二、主成分分析的思想一个中心:PCA是对原始特征空间的重构,将原来的线性相关的向量转换成线性无关的向量;
PCA首先要将数据中心化(即减去均值)然后投影到一个新的方向上,这个新的方向即为重构的特征空间的坐标轴,同时也要保证投影以后得到的数据的方差最大,即最大投影方差,这样也保证了数据的重构距离最小。 四、最大投影方差假设投影方向为 因此该问题就转换为以下最优化问题: 然后使用拉格朗日乘子法进行求解: 最后解得符合条件的向量是协方差矩阵 特征向量表示投影变换的方向,特征值表示投影变换的强度。通过降维,我们希望减少冗余信息,提高识别的精度,或者希望通过降维算法来寻找数据内部的本质结构特征。找最大的特征值是因为 ,在降维之后要最大化保留数据的内在信息,并期望在所投影的维度上的离散最大。 五、最小重构距离最小重构距离是另一种求解的方法,其本质上和最大投影方差是相同的。 我们知道有 因此重构距离也就是指 然后就可以转化为以下最优化问题: 显然这里的每个 六、SVD角度看PCA和PCoA协方差矩阵
将 接下里可以做以下变换: 接下来我们构造矩阵 对比 关于为什么将 这两种⽅法都可以得到主成分,但是由于⽅差矩阵是 七、概率PCA(p-PCA)
假设有以下数据: 其中
这是一个线性高斯模型,其中
上图中数据空间为⼆维,潜在空间为⼀维。⼀个观测数据点
求解
该问题和《高斯分布|机器学习推导系列(二)》中第六部分的问题是类似的。 利用《高斯分布|机器学习推导系列(二)》中第五部分的公式可以求解
使用EM算法求解,这里不做展示。 参考资料ref:降维时为什么找最大的特征值对应的特征向量 |
|