机器学习我爱编程

机器学习笔记6: 支持向量机(上)

2018-04-15  本文已影响83人  secondplayer

在接下来的两篇文章里,我们会着重介绍支持向量机(Support Vector Machine)算法,以下简称为SVM。SVM可以称得上是监督学习里最优秀的算法了,在诸如文本分类,图像识别,生物序列分析等领域有很多的应用。

本篇文章首先介绍间隔(margin)的概念,然后给出最优间隔分类器(optimal margin classifier)的定义,同时将该问题转化为一个凸优化(convex optimization)问题,随后补充介绍拉格朗日对偶性(Lagrange duality)的知识,并由此推导出最优间隔分类器的对偶问题。

符号表示

为了使SVM的描述更简单,我们需要对之前的符号表示做一些修改。对于一个二元线性分类器,特征向量是x,输出分类是y。之前y的取值是0和1,现在我们把取值修改为-1和1。之前假设函数h(x)是以θ作为参数,即:

现在我们使用w和b作为参数,即:

其中,如果z >= 0,那么g(z) = 1,否则g(z) = -1。用w和b表示可以显式地让我们把截距(intercept)b从其他参数中分离出来。对比两种h(x)的定义,b相当于原来的θ0,w相当于剩余的参数[θ1, θ2, ..., θn]T

注意,由于g(z)的定义变了,现在我们的分类器可以直接输出1或者-1,而不是像逻辑回归那样先求出y = 1的概率,再根据概率预测输出。

函数间隔和几何间隔

下图是一个线性分类器的图示,图中显示了训练集的两个分类数据(分别用圈和叉表示),以及一个决策边界(decision boundary)将两类数据分割开。图中的直线是wTx + b = 0,也被称为超平面(hyperplane)。

图中有三个点A、B和C,其中A离超平面最远,C离超平面最近,因而我们认为A比C有更大的可能性属于叉的分类。那么,我们应该确定这个超平面呢?从直觉上看,这个超平面应该使每个点离超平面的间隔都尽可能大。

为了确定这个超平面,我们需要正式给出间隔(margin)的定义。对于训练数据(x(i), y(i)),我们定义它与超平面(w, b)的函数间隔(functional margin)为:

如果y(i) = 1,那么wTx + b必须是正数,并且wTx + b越大,函数间隔越大;相反地,如果y(i) = -1,那么wTx + b必须是负数,并且wTx + b越小,函数间隔越大。因而函数间隔越大,分类预测的可信度越高。

有了单个训练数据的函数间隔的定义,我们可以定义整个训练数据集的函数间隔是所有训练数据的函数间隔的最小值,即:

函数间隔虽然可以表示分类预测的可信度,但它有一个缺点:如果我们成比例地增大w和b(比如把w和b替换成2w和2b),那么函数间隔的值也会成比例地增大,然而超平面本身并没有改变,因此这样是无意义的。直觉上看,我们需要对参数作一些约束,比如限制||w|| = 1,而这就引出了几何间隔(geometric margin)的定义。

几何间隔实际上就是数据点到超平面的垂直距离,比如上图中点A的几何间隔就是A到超平面的距离AB,根据平面几何的知识可以求出数据点(x(i), y(i))到超平面(w, b)的距离为:

上式就是几何间隔的定义。可以看到,如果||w|| = 1,那么几何间隔就等于函数间隔。

另外如果我们任意缩放w和b,那么几何间隔并不会随之改变。

同样地,整个训练数据集的几何间隔是所有训练数据的几何间隔的最小值,即:

一般地,函数间隔和几何间隔有如下关系:

最优间隔分类器的定义

上面我们讨论到,寻找最优超平面的条件应该使每个点离超平面的间隔都尽可能大,因而最优超平面也被称为最优间隔分类器(optimal margin classifier)。并且由于“任意缩放w和b,几何间隔并不会随之改变”,上述讨论中的间隔应该使用几何间隔,所以最优间隔分类器问题可以定义为:

这个优化问题解决起来比较棘手,因为目标函数是非凸函数,我们没有办法用现成的软件可以解决这个问题。再次考虑“任意缩放w和b,几何间隔并不会随之改变”这个结论,我们可以对该问题增加一个约束:函数间隔等于1,并且最大化1 / ||w||等价于最小化||w||2 ,那么问题被转化为:

这样我们就把原始问题转化成了一个凸优化问题,而这个问题可以用现成的二次规划(quadratic programming)软件来求解。

拉格朗日对偶性

这一部分我们介绍拉格朗日对偶性(Lagrange duality),其核心思想是通过拉格朗日对偶性可以将原始问题转化为对偶问题,而对偶问题通常比较容易求解。

考虑如下优化问题:

即最小化函数f(w),并且满足l个等式约束(equality constraint)条件hi(w) = 0。定义拉格朗日算子(Lagrangian):

即等于原始目标函数加上约束函数的线性组合,其中βi拉格朗日乘数(Lagrange multipliers)。分别求L关于w和β的偏导数即可求出原始问题的解:

上述的优化问题只包含等式约束,而更广义的优化问题还包含不等式约束(equality constraint)。下面我们定义这个广义优化问题,也称为原始优化问题(primal optimization problem):

即最小化函数f(w),并且满足l个等式约束条件hi(w) = 0和k个不等式约束条件gi(w) <= 0。定义广义拉格朗日算子(generalized Lagrangian):

其中αi和βi是拉格朗日乘数。定义:

下标p表示原始(primal)问题,可以证明:

因此当w满足原始约束条件时,原问题等价为:

为了后面表述方便,定义p*是原始问题的最优解:

我们再考虑另一个稍微不同的问题,定义:

下标D表示对偶(dual)问题,注意在原始问题中是关于参数α和β求最优解,而对偶问题是关于参数w求最优解。定义对偶优化问题(dual optimization problem):

和原始优化问题相比,对偶优化问题把max和min的顺序交换了一下。同样为了表述方便,定义d*是对偶问题的最优解:

原始问题与对偶问题的关系如下:

事实上一个函数的max min值总是小于等于它的min max值,这里我们不作证明。而在某些情况下,我们有:

这种情况下求解原始问题等价于求解对偶问题。下面我们不加证明地给出使得p* = d*成立的条件。

假设f和gi是凸函数,hi仿射(affine)函数(即存在ai和bi使得hi(w) = aiTw + bi),并且gi严格可执行的(strictly feasible)(即存在w使得对于所有gi(w)<0都成立)。在上述条件下,存在w*,α*,β*,其中w*是原始问题的解,α*,β*是对偶问题的解,并且满足:

此外,w*,α*,β*同时也满足如下条件:

这些条件被称为KKT条件(Karush-Kuhn-Tucker (KKT) conditions)。相反地,如果w*,α*,β*满足KKT条件,那么它们能成为原始问题和对偶问题的解。

KKT条件中等式(5)也被称为KKT对偶互补条件(KKT dual complementarity condition)。这个条件表明如果αi* > 0,那么gi(w*) = 0。

最优间隔分类器的推导

我们再次回到最优间隔分类器这个问题:

把约束条件写成如下形式:

这里我们只有一个不等式约束条件。根据KKT对偶互补条件,当αi > 0时,有gi(w*) = 0,即函数间隔等于1。考虑下图实例,其中实线表示这个训练集的最优间隔超平面。

训练集上拥有最小间隔的点也是最接近超平面的点,这样的点在上图虚线处总共有三个。因此这三个点对应的αi是非零的,而这三个点被称为该问题的支持向量(support vectors)。事实上,支持向量的数量在整个训练集的占比非常小。

接下来我们对原问题构造拉格朗日算子:

注意,由于我们只有一个约束条件,所以这里只有αi一个乘数。

接着我们开始求解对偶问题,通过求L关于w的偏导数,可得:

通过求L关于b的偏导数,可得:

将等式(9)代回到等式(8)中并利用等式(10)的结论,可以得到:

因此对偶问题可以表述为:

可以证明该优化问题是满足KKT条件的,所以求解对偶问题等价于求解原始问题。通过求解该最大化问题可以得到α*,然后将其代入等式(9)可得w*,最后再代入回原始问题可得到b*,即:

求解完模型各参数后,对于一个新特征x,我们需要计算wTx + b的值,如果值大于0,那么可以预测y = 1。根据等式(9)可得:

从上式可以看出,当αi确定后,我们只需要逐个计算x和每个训练集的内积(inner product)。另外当训练集的点是支持向量时才有αi不等于0,并且支持向量只占训练集很少一部分,所以式子里的大多数项都是0,我们只需要计算x和支持向量的内积就可以了。

通过将问题表示成特征向量的内积形式,其实是为了引出核函数的概念,这个概念可以启发我们在高维空间下更高效应用SVM的算法,而这是我们下一章的内容。

总结

参考资料

上一篇下一篇

猜你喜欢

热点阅读