Day 686:机器学习笔记(15)

2018-12-13  本文已影响7人  kafkaliu

PCA

在现实中,我们能获取到的数据是相对较少的,或者说获取大量数据的成本比较高。

这些数据如果放到多维的特征空间,就会变得非常稀疏。于是研究人员就琢磨出在不丢失重要信息的情况下,降低维度空间的方法。

向量空间都有对应的超平面,超平面是向量空间的降维。避免主要特征的丧失。一是投影到超平面上的点尽可能不重叠。二是尽可能让超平面靠近样本点,这样投影后丢失的信息就比较少(缺少了点到超平面之间的距离信息)。

PCA就是这样的算法,它的目标就是让样本点到超平面上的投影尽可能分开,并且到超平面的距离尽可能近。

上一篇下一篇

猜你喜欢

热点阅读