数据结构和算法分析机器学习实战数据乐园

机器学习(20)——数据降维

2018-04-22  本文已影响176人  飘涯

前言:正所谓每一个结果的出现都是一系列的原因导致的,当构建机器学习模型时候,有时候数据特征异常复杂,这就需要经常用到数据降维技术,下面主要介绍一些降维的主要原理

为什么要降维?

在实际的机器学习项目中,特征选择/降维是必须进行的,因为在数据中存在以下几个 方面的问题:

当然有时候也存在特征矩阵过大, 导致计算量比较大,训练时间长的问题

常用的降维方法有:

主成分析(PCA):将高纬的特征向量合并称为低纬度的特征属性,是一种无监督 的降维方法。
算法目标是通过某种线性投影,将高维的数据映射到低维的空间中表 示,并且期望在所投影的维度上数据的方差最大(最大方差理论),以此使用较 少的数据维度,同时保留较多的原数据点的特性。

线性判断分析(LDA):LDA是一种基于分类模型进行特征属性合并的操作,是一 种有监督的降维方法。
LDA的原理是,将带上标签的数据(点),通过投影的方法,投影到维度更低的 空间中,使得投影后的点,会形成按类别区分,一簇一簇的情况,相同类别的点, 将会在投影后的空间中更接近。用一句话概括就是:“投影后类内方差最小,类 间方差最大”




*数学原理(投影后类内方差最小,类 间方差最大)

假定转换为w,那么线性转换函数为:
并且转换后的数据是一维的
考虑二元分类的情况,认为转换后的值大于某个阈值,属于某个类别,小于等于 某个阈值,属于另外一个类别,使用类别样本的中心点来表示类别信息,那么这 个时候其实就相当于让这两个中心的距离最远:

同时又要求划分之后同个类别中的样本数据尽可能的接近,也就是同类别的投影 点的协方差要尽可能的小。

结合着两者,那么我们最终的目标函数就是:



对目标函数进行转换(A、B为方阵,A为正定矩阵):

该式子和PCA降维中的优化函数一模一样,所以直接对中间的矩阵进行矩阵分解即可。

相同点:

上一篇下一篇

猜你喜欢

热点阅读