机器学习day11降维
2020-08-20 本文已影响0人
rivrui
降维
用一个低维度的向量表示原来高维度的特征,避免维度灾难。
降维方法
- 主成分分析
- 线性判别分析
- 等距映射
- 局部线性嵌入
- 拉普拉斯特征映射
- 局部保留投影
PCA最大方差理论
原始数据高维向量包含冗余与噪声。主成分分析(Principal Components Analysis,PCA)是最经典的降维方法,具有线性、非监督、全局等特点。
PCA需要定义主成分,设计提取主成分。
举个例子
如果在三维空间里面,一系列数据点过一个平面,如果我们使用xyz来表示,就需要用到三个维度。而如果我们将其放在一个平面,使用xy来表示,那么就只有两个维度,而且数据也不会有任何的丢失,这样,我们就完成了从降维,从三维到二维。
对于给定的一组数据,其中所有向量均为列向量,中心化后表示为,其中。
PCA的求解方法。
- 对样本数据进行中心化处理。
- 求样本协方差矩阵。
- 对协方差矩阵进行特征值分解,将特征值从大到小排列。
- 取特征值前d大对应的特征向量,通过以下映射将n维样本映射到d维