程序员互联网科技人工智能/模式识别/机器学习精华专题

机器学习特征工程2-特征降维(sklearn实践)

2018-07-15  本文已影响15人  scottlin

特征降维

当特征选择完成后,可能由于特征矩阵过大,导致计算量大,训练时间长的问题,因此降低特征矩阵维度也是必不可少的。常见的降维方法有主成分分析法(PCA)和线性判别分析(LDA)。PCA和LDA的区别是:PCA是为了让降维后的样本具有最大的发散性;而LDA是为了让降维后的样本有最好的分类性能力。

主成分分析法(PCA)

PCA计算步骤

sklearn代码

不要担心PCA计算方法,sklearn已经将上述步骤封装好了,代码如下:

from sklearn.decomposition import PCA

#参数n_components为主成分数目,即上诉的k
#X 特征矩阵
PCA(n_components=12).fit_transform(X)

线性判别分析(LDA)

LDA概述

LDA的原理是,将带上标签的数据(点),通过投影的方法,投影到维度更低的空间中,使得投影后的点,会形成按类别区分,一簇一簇的情况,相同类别的点,将会在投影后的空间中更接近

sklearn代码

同样不要担心LDA计算方法,sklearn已经将上述步骤封装好了,代码如下:

from sklearn.lda import LDA

#参数n_components为降维后的维数
#X 特征矩阵, Y标签矩阵
LDA(n_components=12).fit_transform(X, Y)
上一篇 下一篇

猜你喜欢

热点阅读