PCA三部曲

PCA的另一种解读--基于《理解矩阵》

2021-07-01  本文已影响0人  ADO_AI

今天对PCA有了另一种理解的感觉和方式

方阵可以进行特征值分解C = VLVT, 其中VT中的向量就代表了原矩阵中列向量(即特征)的方差分布的方向。将特征值由大到小进行排列所对应的特征矩阵VT,即方差由大到小所对应的特征向量,就代表了方差分布的方向。

显然对于非方阵的情况,不能够进行特征值分解。但类比而言,奇异值分解Xm×n= Um×mSm×nVn×nT ≈ Um×kSk×kVk×nT。Vn×nT相当于特征值分解中的VT;近似地取前k个特征值所对应的特征矩阵Vk×nT,也即取到了前k大的方差分布方向的特征矩阵。因而将原矩阵变换到Vk×nT所代表的线性空间中,即为PCA的过程。这样既能够最大程度近似地描述原矩阵,又能够起到降维的效果。

前面提到,PCA的过程,实际上是找到“前k大方差分布方向所对应的特征向量所构成的矩阵Vk×nT” ,利用Vk×nT * X,将原矩阵变换到Vk×nT所代表的线性空间中,即为PCA的过程:这样既能够最大程度近似地描述原矩阵,又能够起到降维的效果。这里的疑问是为什么要去找前k大方差分布方向所对应的特征向量??这里我用最简单的二维图像来说明。

参考文献

理解矩阵--孟岩

上一篇 下一篇

猜你喜欢

热点阅读