SVM系列十三讲--支持向量回归机SVR
2017-10-06 本文已影响126人
文哥的学习日记
![](https://img.haomeiwen.com/i4155986/8836b9990536a462.png)
![](https://img.haomeiwen.com/i4155986/cb792a573a638a11.png)
这样我们可以得到一个带正则项的损失函数:
![](https://img.haomeiwen.com/i4155986/e0292a2000f58463.png)
可以看到,这个误差函数中后面一部分与SVM中的目标函数类似,我们再将二次误差函数替换为⼀个ϵ -不敏感误差函数,于是SVR问题可形式为:
![](https://img.haomeiwen.com/i4155986/850cd813006de906.png)
ϵ -不敏感误差函数如下:
![](https://img.haomeiwen.com/i4155986/967c7195a8d25231.png)
通过引入松弛变量的方式,我们可以重新表达最优化问题。对于每个数据点xn,我们现在需要两个松弛变量,如下图所示:
![](https://img.haomeiwen.com/i4155986/ead14664ed869705.png)
目标点位于上图管道中的条件为:
![](https://img.haomeiwen.com/i4155986/147e6326d2e7d5cc.png)
引入松弛变量之后,在上图中管道上下两侧的点满足的条件为:
![](https://img.haomeiwen.com/i4155986/abc43365efc7b6ca.png)
这样,支持向量回归机的优化问题可以写为:
![](https://img.haomeiwen.com/i4155986/19e0b604564a1660.png)
同样,使用拉格朗日乘子法将约束条件带入目标函数中:
![](https://img.haomeiwen.com/i4155986/bdb3e97c4df91ba1.png)
同样使用SVM中求解对偶问题的思路,可以得到:
![](https://img.haomeiwen.com/i4155986/376c35e4766a7ee0.png)
使用这些结果消去拉格朗日函数中对应的变量,得到SVR的对偶问题:
![](https://img.haomeiwen.com/i4155986/367627fb574fbc83.png)
这样,得到的SVR回归模型为:
![](https://img.haomeiwen.com/i4155986/efde201c00ddd96b.png)