支持向量机(SVM)
2019-07-22 本文已影响0人
踏玉
传统的机器学习问题分成两类,分类(classification)和回归(regression),SVM是分类学习的一个经典算法。给定训练集D,寻找一个超平面按照某种标准把样本进行分类。

样本是含有随机扰动的,而距离样本点远意味着该超平面对训练样本的局部扰动容忍性最好

假设超平面的方程是


如果令所有支持向量的label*(w^t*x+b)=1,所有向量就满足label*(w^t*x+b)>=1>0,minw^-1等价于max(1/2*W^t*w)
最大间隔损失函数(hinge loss),用于最大间隔分类。

对于训练集中的第i个数据Xi,在W下会有一个score结果向量f(xi,W),第j类的得分结果f(xi,W)j,j!=yi,错误分类的得分是f(xi,W)j,正确分类的得分是(xi,W)yi,正确得分 - delta = 安全警戒线值

SVM如何处理线性不可分问题:在线性不可分的情况下,支持向量机首先在低维空间中完成计算,然后通过核函数将输入空间映射到高维特征空间,最终在高维特征空间中构造出最优分离超平面,从而把平面上本身不好分的非线性数据分开。
