大数据,机器学习,人工智能机器学习和人工智能入门机器学习与数据挖掘

用人话讲明白支持向量机SVM(下)

2019-07-20  本文已影响2人  化简可得

目录

4.求解超平面
4.1几何间隔
4.2凸二次规划
4.3拉格朗日乘数法
5.线性可分问题小结

4.求解超平面

上篇仅介绍了SVM的基本概念,本篇着重讲解SVM中的最佳线性分类器(最大边界超平面)是如何求得的。

4.1几何间隔

上一小节给出二维问题下最佳线性分割的标准就是分割线到两类边界点的距离最“宽”,那么这个“宽度”怎么量化和求解呢?

我们知道,点(x_{0} ,y_{0})到直线Ax+By+c=0的距离(中学的知识点),可以表示为:
D=\frac{|Ax_{0}+By_{0}+c|} {\sqrt{A^{2}+B^{2}}}

在我们的二维问题中,第i个点的坐标为 X_{i}=(x_{i1},x_{i2})^{T},直线为w_{1}x_{1}+w_{2}x_{2}+b=W^{T}X+b=0(为了打公式方便,后面我们不区分向量和其转置,省略T标志,统一写成WX+b=0),将上式替换,X_{i}到分割直线的距离为:
D=\frac{|WX_{i}+b|} {\sqrt{w_{1}^{2}+w_{2}^{2}}}=\frac{|WX_{i}+b|} {||W||}

有的人也许对分母||W||感到陌生,这里多做点解释。

||W||是向量W的2-范数(L_{2}范数),一般我们说向量长度指的是向量的2-范数。例如这里的 W=(w_{1},w_{2}),它的2-范数就是||W||_{2}=\sqrt{w_{1}^{2}+w_{2}^{2}} (通常会省略下标2,一般说||W||就是指||W||_{2}),而它的p-范数(L_{p}范数)就是||W||_{p}=\sqrt[p]{w_{1}^{p}+w_{2}^{p}}

这里给出向量范数的一般形式:对于n维向量 W=(w_{1},w_{2},...,w_{n}),它的p-范数为:
||W||_{p}=\sqrt[p]{w_{1}^{p}+w_{2}^{p}+...+w_{n}^{p}}

D=\frac{|WX_{i}+b|} {||W||}这个公式的学名叫做几何间隔,几何间隔表示的是点到超平面的欧氏距离(还记得上次讲线性回归时强调要记住这个名称吧?)。

以上是单个点到某个超平面的距离定义(在这个具体的二维例子中是一条直线,我们认为直线也是属于超平面的一种,后面统一写超平面的时候,不要觉得混乱哦)。上一节我们说要求最宽的“宽度”,最厚的“厚度”,其实就是求支持向量到超平面的几何间隔最大值

回到二维问题,令“马路宽度”为2d,即最佳分割线到两类支持向量的距离均为d,最佳分割线参数的求解目标就是使d最大。


4.2凸二次规划

假设L1是其中一条过+1类支持向量且平行于 WX+b=0的直线,L2是过-1类支持向量且平行于 WX+b=0的直线,这L1和L2就确定了这条马路的边边,L是马路中线。

由于确定了L的形式是 WX+b=0,又因为L1、L2距离L是相等的,我们定义L1为WX+b=1,L2为WX+b=-1。为什么这两条平行线的方程右边是1和-1?其实也可以是2和-2,或者任意非零常数C和-C,规定1和-1只是为了方便。就像2x+3y+1=0和4x+6y+2=0是等价的,方程同乘一个常数后并不会改变。

确定了三条线的方程,我们就可以求马路的宽度2d。2d是L1和L2这两条平行线之间的距离:
2d=\frac{|1-(-1)|}{||W||}=\frac{2}{||W||}

4.1小节我们讲了现在的目标是最大化几何间隔d,由于d=\frac{1}{||W||},问题又转化成了最小化||W||。对于求min||W||,通常会转化为求min\frac{||W||^{2}}{2},为什么要用平方后除以2这个形式呢?这是为了后面求解方便(还记得上次讲线性回归讲到的凸函数求导吗?)。

||W||不可能无限小,因为还有限制条件呢。超平面正确分类意味着点i到超平面的距离恒大于等于d,即:
\frac{|WX_{i}+b|}{||W||}\geq d=\frac{1}{||W||}
两边同乘||W||,简化为:
|WX_{i}+b|=y_{i}(WX_{i}+b)\geq 1

|WX_{i}+b|=y_{i}(WX_{i}+b)应该不难理解吧?因为y只有两个值,+1和-1。

这意味着y_{i}(WX_{i}+b)恒大于0,y起到的作用就和绝对值一样。之所以要用y替换绝对值,是因为y是已知样本数据,方便后面的公式求解。

我们将这个目标规划问题用数学语言描述出来。

目标函数

约束条件

这里约束条件是W的多个线性函数(n代表样本个数),目标函数是W的二次函数(再次提醒,X、y不是变量,是已知样本数据),这种规划问题叫做凸二次规划

什么叫凸二次规划?之前讲线性回归最小二乘法时,提到了处处连续可导且有最小值的凸函数。从二维图形上理解“凸”,就是在一个“凸”形中,任取其中两个点连一条直线,这条线上的点仍然在这个图形内部,例如f(x)=x^{2} 上方的区域。

当一个约束优化问题中,目标函数和约束函数是凸函数(线性函数也是凸函数),该问题被称为凸优化问题。 当凸优化问题中的目标函数是一个二次函数时,就叫做凸二次规划,一般形式为:

若上式中的Q为正定矩阵,则目标函数有唯一的全局最小值。我们的问题中,Q是一个单位矩阵。

4.3拉格朗日乘数法

这种不等式条件约束下的求多元函数极值的问题,到底怎么求解呢?

以下涉及高等数学知识,推导过程较为复杂,数学基础较弱或对推导没兴趣的同学可以跳过,直接看第5小节

当我们求一个函数f(x,y)的极值时,如果不带约束,分别对x,y求偏导,令两个偏导等于0,解方程即可。这种是求无条件极值

带约束的话则为条件极值,如果约束为等式,有时借助换元法可以将有条件转化为无条件极值从而求解,不过换元消元也只能解决三元以内的问题。而拉格朗日乘数法可以通过引入新的未知标量(拉格朗日乘数\lambda),直接求多元函数条件极值,不必先把问题转化为无条件极值的问题。

求函数f(x,y)在附加条件\varphi(x,y)=0下可能的极值点,可以先做拉格朗日函数:

讲完拉格朗日乘数法的思路,仍解决不了上面的问题,因为该问题约束条件是不等式。其实,解决办法很简单,分成两部分看就行。

为了看起来简洁,我们令目标函数min\frac{||W||^{2}}{2}minf(W),约束条件y_{i}(WX_{i}+b)-1\geq 0g_{i}(W)\geq 0

这两部分对应到样本上,又是什么?

我们再进一步思考下:

不论是以上哪种情况,\lambda_{i} g_{i}(W)=0均成立。

搞懂了上面说的,接下来构造拉格朗日函数,n个不等式约束都要加拉格朗日函数\lambda_{i} \geq 0,有拉格朗日乘数向量\lambda =(\lambda_{1},...\lambda_{n})^{T}

L(W,b,\lambda ) = f(W)- \sum_{1}^{n} \lambda_{i} g_{i}(W)=\frac{||W||^{2}}{2} - \sum_{1}^{n} \lambda_{i}y_{i}(WX_{i}+b) +\sum_{1}^{n} \lambda_{i} \tag{1}

要求极值,先对参数求偏导:

\frac{\partial L}{\partial W}=W-\sum_{1}^{n} \lambda_{i}y_{i}X_{i}=0 \tag{2}

\frac{\partial L}{\partial b}=\sum_{1}^{n} \lambda_{i}y_{i}=0 \tag{3}

此时又要引入一个概念——对偶问题(可见学明白SVM需要的数学知识真的很多,怪不得是机器学习入门的拦路虎呢),关于对偶问题,可以参见这篇文章,这里不赘述。简单而言,就是原先的问题是先求L对\lambda的max再求对W、b的min,变成先求L对W、b的min再求\lambda的max。

将(2)式W=\sum_{1}^{n} \lambda_{i}y_{i}X_{i}代入(1)式,得:

L = \frac{1}{2}(\sum_{1}^{n} \lambda_{i}y_{i}X_{i})(\sum_{1}^{n} \lambda_{i}y_{i}X_{i}) - \sum_{1}^{n} \lambda_{i}y_{i} ((\sum_{1}^{n} \lambda_{i}y_{i}X_{i})X_{i}+b) +\sum_{1}^{n} \lambda_{i}
= \sum_{1}^{n} \lambda_{i} - \frac{1}{2}(\sum_{i=1}^{n} \sum_{j=1}^{n} \lambda_{i} \lambda_{j}y_{i}y_{j}X_{i}^{T}X_{j}) \tag{4}

此时目标函数中W、b就都被消去了,约束最优化问题就转变成:
目标函数:
minL(\lambda ) = min(\frac{1}{2}\sum_{i=1}^{n} \sum_{j=1}^{n} \lambda_{i} \lambda_{j}y_{i}y_{j}X_{i}^{T}X_{j}-\sum_{1}^{n} \lambda_{i} ) \tag{5}

约束条件:

\sum_{1}^{n} \lambda_{i}y_{i}=0 , \lambda_{i} \geq 0 \tag{6}
\lambda_{i}( y_{i}(WX_{i}+b)-1) = 0, i=1,2...n \tag{7}

(6)式来自上面的(3)式,(7)式是由\lambda_{i} g_{i}(W)=0而来。如果能解出上面这个问题的最优解,我们就可以根据这个\lambda求解出我们需要的W和b。

5.线性可分问题小结

最大边界超平面是由支持向量决定的,支持向量是边界上的样本点:

至此我们讲完了线性分类支持向量机的逻辑思想和求解过程,但这些只是SVM的基础知识,真正的核心其实还没有讲到。要知道,SVM的优势在于解决小样本非线性高维的回归和二分类问题(Support vector machine,SVM,1992, Boser, Guyon and Vapnik)。

参考链接

从超平面到SVM(一)
从超平面到SVM(二)
多元函数的极值及其求法
关于SVM数学细节逻辑的个人理解(二)


本文首发于知乎:机器学习笔记02-支持向量机SVM(下)

上一篇下一篇

猜你喜欢

热点阅读