机器学习实战

【阿旭机器学习实战】【21】通过SVM分类与回归实战案例,对比支

2022-11-25  本文已影响0人  阿旭123

【阿旭机器学习实战】系列文章主要介绍机器学习的各种算法模型及其实战案例,欢迎点赞,关注共同学习交流。

本文介绍了3种SVM不同核函数的基本应用范围及特点,并使用3种SVM不同核函数分别进行了分类与回归情况下的实战比较。

对于SVM算法原理的介绍,请参考之前的博文【阿旭机器学习实战】【20】支持向量机SVM原理简介及示例演示:画出SVM二维决策边界与分离非线性坐标点

目录

1. 3种SVM不同核函数介绍

线性核函数linear

适用范围:
主要用于线性可分的情况。

特点:
特征空间到输入空间的维度是一样的,参数少速度快,可解释性强,可以比较容易的知道哪些特征是重要的。

它对于线性可分情况分类效果比较理想,因此我们通常会先尝试用线性核函数来做分类,看看效果如何,如果不行再换其他的核函数。

多项式核函数(poly)

适用范围:
可用于线性与非线性分类。
特点:
通过将低维的输入空间映射到高维的特征空间的方式,使得原本线性不可分的数据线性可分。

多项式核函数的参数较多,当多项式阶数比较高的时候,核矩阵的元素值将趋于无穷大或者无穷小,计算复杂度会大到无法计算。因此对于大数量级的幂数,不太适用,通常只用在已经大概知道一个比较小的幂数的情况。

高斯径向基核函数(rbf)

适用范围:
可用于线性与非线性分类。
特点:
高斯径向基核函数是一种局部性强的核函数,其可以将一个样本映射到一个更高维的空间内,该核函数是应用最广的一个,无论大样本还是小样本都有比较好的性能,而且其相对于多项式核函数参数要少,因此大多数情况下在不知道用什么核函数的时候,优先使用高斯核函数。

高斯径向基核函数只有一个参数,相比多项式核容易选择。缺点是可解释性差、计算速度比较慢、容易过拟合。

2. 使用不同SVM不同核函数对iris数据集进行分类

导入数据集并构建模型

svc_linear = SVC(kernel="linear")
svc_rbf = SVC(kernel="rbf")
svc_poly = SVC(kernel="poly")
# LinearSVC线性分类支持向量机,它是给根据liblinear实现的,可以用于二类分类,也可以用于多类分类
from sklearn.svm import LinearSVC
linearSVC = LinearSVC()
from sklearn import datasets
iris = datasets.load_iris()
data = iris.data[:,[2,3]]
target = iris.target
# 画出样本点的散点图
plt.scatter(data[:,0],data[:,1],c=target)
在这里插入图片描述
# 用以上的模型进行训练
svc_linear.fit(data,target)
svc_rbf.fit(data,target)
svc_poly.fit(data,target)
linearSVC.fit(data,target)
LinearSVC(C=1.0, class_weight=None, dual=True, fit_intercept=True,
     intercept_scaling=1, loss='squared_hinge', max_iter=1000,
     multi_class='ovr', penalty='l2', random_state=None, tol=0.0001,
     verbose=0)

画出不同核函数模型的决策区域

在平面上生成150000个待预测的点

xmin,xmax = data[:,0].min(),data[:,0].max()
ymin,ymax = data[:,1].min(),data[:,1].max()

x = np.linspace(xmin,xmax,500)
y = np.linspace(ymin,ymax,300)

xx,yy = np.meshgrid(x,y)
xy = np.c_[xx.ravel(),yy.ravel()]
xy.shape
(150000, 2)

使用上述4个模型进行预测

linear_y = svc_linear.predict(xy)
rbf_y = svc_rbf.predict(xy)
poly_y = svc_poly.predict(xy)
linearSVC_y = linearSVC.predict(xy)

画出数据点的分类,即决策区域

plt.figure(figsize=(12,9))
y_ = [linear_y,rbf_y,poly_y,linearSVC_y]
titles = ["linear","rbf","poly","linearSVC"]
for i in range(len(y_)):
    axes = plt.subplot(2,2,i+1)
    
    axes.set_title(titles[i])
    
    plt.pcolormesh(xx,yy,y_[i].reshape(xx.shape),cmap="rainbow")
    plt.scatter(data[:,0],data[:,1],c=target)
在这里插入图片描述

3. 使用3种不同核函数SVM回归器进行对比

from sklearn.svm import SVR
import numpy as np
import matplotlib.pyplot as plt
%matplotlib inline
svr_linear = SVR(kernel="linear")  #线性核函数
svr_rbf = SVR(kernel="rbf")  # 高斯核函数
svr_poly = SVR(kernel="poly")  #多项式核函数
# 构建数据集
x = np.sort(np.random.rand(120)*20).reshape((-1,1))
y = np.sin(x).reshape((-1))
y
array([ 0.00742162,  0.24751523,  0.3415653 ,  0.34759352,  0.38696958,
        0.4421328 ,  0.55214074,  0.76303351,  0.87491982,  0.99823761,
        0.99980917,  0.99761508,  0.9208189 ,  0.65227279,  0.63461282,
        0.6229594 ,  0.52505248,  0.50287485,  0.46412807,  0.36936856,
        0.24375237, -0.25350717, -0.26024696, -0.33279932, -0.56187501,
       -0.654529  , -0.77757274, -0.78186399, -0.79296189, -0.81952154,
       -0.83833383, -0.8532612 , -0.85372675, -0.95442008, -0.95631099,
       -0.97157723, -0.98316123, -0.99660268, -0.98940421, -0.88825406,
       -0.8761492 , -0.83140796, -0.72885609, -0.67636221, -0.50023083,
       -0.33547563,  0.02380919,  0.04284093,  0.09876885,  0.1511908 ,
        0.5148709 ,  0.86849825,  0.92608232,  0.93889021,  0.99937328,
        0.99066457,  0.58532639,  0.14879434, -0.10706485, -0.3945345 ,
       -0.48553596, -0.72967251, -0.83200108, -0.85349259, -0.98519961,
       -0.91126438, -0.89261681, -0.58239636, -0.24621536, -0.21255149,
        0.07973857,  0.14214009,  0.22297726,  0.43508214,  0.97500725,
        0.99042149,  0.9999599 ,  0.99801811,  0.91532541,  0.89571095,
        0.85068955,  0.84204641,  0.53463984,  0.41512068,  0.29221854,
        0.07522218,  0.05414875, -0.11536683, -0.21672657, -0.50645076,
       -0.57996269, -0.63090667, -0.68752594, -0.71803267, -0.77350908,
       -0.82268006, -0.89454294, -0.99754715, -0.98425531, -0.87872174,
       -0.87453792, -0.79748762, -0.70055025, -0.27372036, -0.25888483,
       -0.23745825, -0.18223377, -0.14449555, -0.0983766 , -0.04744317,
        0.03364084,  0.25909822,  0.34909316,  0.56313943,  0.58188988,
        0.66766334,  0.76456595,  0.77336481,  0.81083299,  0.88017043])
plt.scatter(x,y)
<matplotlib.collections.PathCollection at 0x207ea6392b0>
在这里插入图片描述
y += np.random.randn(120)*0.5

让不同的核函数来训练样本

svr_linear.fit(x,y)
svr_rbf.fit(x,y)
svr_poly.fit(x,y)
SVR(C=1.0, cache_size=200, coef0=0.0, degree=3, epsilon=0.1, gamma='auto',
  kernel='poly', max_iter=-1, shrinking=True, tol=0.001, verbose=False)
x_test = np.linspace(0,20,200).reshape((200,1))
linear_y = svr_linear.predict(x_test)
rbf_y = svr_rbf.predict(x_test)
poly_y = svr_poly.predict(x_test)
plt.scatter(x,y)
plt.plot(x_test,linear_y,c="g")  #绿色:线性核函数
plt.plot(x_test,rbf_y,c="b")     #蓝色:高斯核函数
plt.plot(x_test,poly_y,c='r')    #红色:多项式核函数
在这里插入图片描述

可以看出,对于该案例,高斯核函数模型的预测效果好于其他2中核函数模型。

如果内容对你有帮助,感谢点赞+关注哦!

更多干货内容持续更新中…

上一篇下一篇

猜你喜欢

热点阅读