人工智能工程师

PCA与LDA做数据降维

2018-12-21  本文已影响9人  longsan0918

1 PCA 主成分分析

理论

PCA(Principal Component Analysis)

4FD14774-4858-4664-83EA-ACEC694B869F.png image.png 划重点:
线性变换=>新特征轴可由原始特征轴线性变换表征
线性无关=>构建的特征轴是正交的
主要线性分量(或者说是主成分)=>方差加大的方向
PCA算法的求解就是找到主要线性分量及其表征方式的过程
相应的,PCA解释方差并对离群点很敏感:少量原远离中心的点对方差有很大的影响,从而也对特征向量有很大的影响。
[PCA参考教程]https://blog.csdn.net/hustqb/article/details/78394058
from sklearn.decomposition import PCA #主成分分析
#降维:对于数据而言,如果特征属性比较多,在构建过程中,会比较复杂,这个时候考虑将多维(高维)映射到低维的数据
#常用的方法:
#PCA:主成分分析(无监督)
#LDA:线性判别分析(有监督)类内方差最小,人脸识别,通常先做一次pca

# 将数据降低到n_components给定的维度
pca = PCA(n_components=2)#构建一个pca对象,设置最终维度是2维
# #这里是为了后面画图方便,所以将数据维度设置了2维,一般用默认不设置参数就可以

x_train = pca.fit_transform(x_train)#训练并转换
x_test = pca.transform(x_test)#转换

2 LDA 线性判别分析

理论
LDA (Linear Discriminate Analysis) BFDBD5AB-1D6F-49BA-9CD0-C4E09A970D17.png CE81BC9A-7F33-4411-B274-55F63056F582.png 37DDA763-41A7-4F85-ACC3-99039F2EEC09.png

[LDA参考资料]https://blog.csdn.net/weixin_40604987/article/details/79615968

上一篇下一篇

猜你喜欢

热点阅读