机器学习与人工智能SVM系列SVM

SVM系列第十讲--离群点处理

2017-07-21  本文已影响532人  文哥的学习日记

1、离群点

在最开始讨论支持向量机的时候,我们就假定,数据是线性可分的,亦即我们可以找到一个可行的超平面将数据完全分开。后来为了处理非线性数据,使用核方法对原来的线性 SVM 进行了推广,使得非线性的的情况也能处理。虽然通过映射 ϕ(⋅) 将原始数据映射到高维空间之后,能够线性分隔的概率大大增加,但是对于某些情况还是很难处理。例如可能并不是因为数据本身是非线性结构的,而只是因为数据有噪音。对于这种偏离正常位置很远的数据点,我们称之为离群点(outlier),在我们原来的 SVM 模型里,离群点的存在有可能造成很大的影响,因为超平面本身就是只有少数几个support vector 组成的,如果这些 support vector 里又存在离群点的话,其影响就很大了。例如下图:


离群点

用黑圈圈起来的那个蓝点是一个离群点,它偏离了自己原本所应该在的那个半空间,如果直接忽略掉它的话,原来的分隔超平面还是挺好的,但是由于这个离群点的出现,导致分隔超平面不得不被挤歪了,变成途中黑色虚线所示(这只是一个示意图,并没有严格计算精确坐标),同时间隔也相应变小了。当然,更严重的情况是,如果这个离群点再往右上移动一些距离的话,我们将无法构造出能将数据分开的超平面来。
那么SVM是如何处理这些离群点的呢?

2、离群点处理

为了处理这种情况,SVM 允许数据点在一定程度上偏离一下超平面。例如上图中,黑色实线所对应的距离,就是该离群点偏离的距离,如果把它移动回来,就刚好落在原来的超平面上,而不会使得超平面发生变形了。具体来说,原来的约束条件:


原约束条件

现在变成:


现约束条件
其中 ξi≥0 称为松弛变量 (slack variable) ,对应数据点 xi 允许偏离的函数间隔的量。当然,如果我们运行 ξi 任意大的话,那任意的超平面都是符合条件的了。所以,我们在原来的目标函数后面加上一项,使得这些 ξi 的总和也要最小:
现目标函数

其中 C 是一个参数,用于控制目标函数中两项(“寻找 间隔最大的超平面”和“保证数据点偏差量最小”)之间的权重。注意,其中 ξ 是需要优化的变量(之一),而 C 是一个事先确定好的常量。完整地写出来是这个样子:



用之前的方法将限制加入到目标函数中,得到如下问题:

和原先求解方法一样,我们通过构造原问题的对偶问题来进行求解: 求解

将 w 带回  并化简,得到和原来一样的目标函数:


目标函数

不过,由于我们得到 C−αi−ri=0 ,而又有 ri≥0 (作为 Lagrange multiplier 的条件),因此有 αi≤C ,所以整个 dual 问题现在写作:



和之前的结果对比一下,可以看到唯一的区别就是现在 dual variable α 多了一个上限 C 。而 Kernel 化的非线性形式也是一样的,只要把 ⟨xi,xj⟩ 换成 κ(xi,xj) 即可。这样一来,一个完整的,可以处理线性和非线性并能容忍噪音和 离群点的支持向量机才终于介绍完毕了。
上一篇下一篇

猜你喜欢

热点阅读