支持向量机SVM
2019-11-01 本文已影响0人
陈文瑜
概述(Support Vector Machines)
- 可以做 有监督学习、无监督学习
分类问题,聚类问题 (SVC),在输入空间做一个映射,映射到一个更高维的空间去做分类。
范数
- 欧几里得距离
点到超平面 的距离为 ,则圆点到超平面距离为
评估分类好坏
- 是否无偏
margin,边际,能平移的距离,目标是最大化margin。
- 如何描述出margin
+1 , -1代表两类问题。则有 ,则
- 前提条件是把每个样本都分对
则有
- 我们的目标是最大化Margin
也就是
- 完整的表述
在条件 下,最小化
- 求解方法 拉格朗日 乘子法
有:
对w和b求导后有:
将上式带入到 中,可以得到其对偶函数:
前提是:
- 少量不为0的 累加 得到w
,向量做内积,是svm设计最精妙的地方
-求b 取 s表示上面求得的不为0的支持向量
可以求得b,不写了,累死。
以上前提条件是将点分对
为解决 分不对情况,加入soft margin概念
- 加入
处理线性不可分的问题
- 线性不可分,可以将数据映射到另外一个空间中
- 设计一个映射,将数据映射到高维空间
这种高维空间的操作等价于低维空间的操作
这就是所谓的 Kernel Trick
- 我们有固定的几种映射方法
Pllynomial :
Gaussian: