分享

主成分分析(PCA)和奇异值分解(SVD)

 OneDayDayUp 2016-10-14
特征抽取的目标是根据原始的d个特征的组合形成k个新的特征,即将数据从d维空间映射到k维空间。在文本分析领域常用的降维方法是主成分分析(Principal Component Analysis, PCA)和奇异值分解(Singular ValueDecomposition, SVD)。
在下文的叙述中,将沿袭机器学习的常用符号,使用x表示一个列向量,它是样本x在d维空间中的点。而由n个样本构成的数据集可以表示为一个d×n的矩阵X
  • PCA
PCA背后的数学基础是特征值分析,即Σvvv是特征向量,λ是特征值。PCA的目标是最大化数据间累积方差。

PCA的一般过程是:
去除平均值:means;
计算X的协方差矩阵Σ
计算Σ的特征向量和特征值(特征向量用列向量v_d×1表示);
将特征值从大到小排序;
保留最上面的k个特征向量(这k个特征向量保证了数据映射到特征值最大的特征向量的方向时,数据间的累积方差最大,数据映射到第二大的特征向量时,数据间的累积方差次之,且特征向量之间保持正交)构成的特征向量矩阵V_d×k;
将数据转换到上述k个特征向量构建的新空间中(V^T*X=A_k×n + means,A是一个k×n的矩阵)。

  • SVD
SVD将原始的数据集X分解成三个矩阵U,ΣV^T:
X_d×n=U_d×dΣ_d×nV^T_n×n
其中是对角矩阵,对角元素成为奇异值,这些奇异值是矩阵X*X^T特征值的平方根。将奇异值从大到小排序后,若设定新空间的维度为k(kV^T_k×n和U_d×k

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多