python办公自动化

集成学习(4) - 超参数优化

2021-03-24  本文已影响0人  木头里有虫911

1. 参数和超参数

在上一节模型优化部分,我们对模型的优化都是对模型算法本身的改进,比如:岭回归对线性回归的优化在于在线性回归的损失函数中加入L2正则化项从而牺牲无偏性降低方差。但是,大家是否想过这样的问题:在L2正则化中参数\lambda应该选择多少?是0.01、0.1、还是1?到目前为止,我们只能凭经验或者瞎猜,能不能找到一种方法找到最优的参数\lambda?事实上,找到最佳参数的问题本质上属于最优化的内容,因为从一个参数集合中找到最佳的值本身就是最优化的任务之一,我们脑海中浮现出来的算法无非就是:梯度下降法、牛顿法等无约束优化算法或者约束优化算法,但是在具体验证这个想法是否可行之前,我们必须先认识两个最本质概念的区别。

  1. 模型参数是模型内部的配置变量,其值可以根据数据进行估计。它有如下特征:
  1. 模型超参数是模型外部的配置,其值无法从数据中估计。通常:

一些典型的模型超参数如下:

我们前面(4)部分的优化都是基于模型本身的具体形式的优化,本次模型超参数优化就是针对超参数,也就是取不同的超参数的值对于模型的性能有不同的影响。

2. 网格搜索与随机搜索

既然知道模型的超参数可以取不同的值,那么我们怎么知道取哪个值可以让模型尽快收敛并获得最佳的精度呢?一个很自然的想法自然是通过使用for循环,遍历每个参数来查看每个参数下模型的准确率。理论上如果有三个参数,我们可以嵌套三个for循环逐个遍历每种组合来获得最佳参数,但是这样做确实太low!
我们知道sklearn最大的特点就是封装!sklearn下的model_selection模块里面已经封装好了网格搜索GridSearchCV()和随机搜索 RandomizedSearchCV()来帮助我们完成最佳参数寻找这个过程。

3. 实例

我们使用之前的房价数据,并使用SVR方法进行预测,并对比网格搜索和随机搜索.

import numpy as np
import pandas as pd
from sklearn.svm import SVR     # 引入SVR类
from sklearn.pipeline import make_pipeline   # 引入管道简化学习流程
from sklearn.preprocessing import StandardScaler # 由于SVR基于距离计算,引入对数据进行标准化的类
from sklearn.model_selection import GridSearchCV  # 引入网格搜索调优
from sklearn.model_selection import cross_val_score # 引入K折交叉验证
from sklearn import datasets

为了简化学习流程,导入pipeline
注: Pipeline可以将许多算法模型串联起来,比如将特征提取、归一化、分类组织在一起形成一个典型的机器学习问题工作流。主要带来两点好处:

boston = datasets.load_boston()     # 导入房价数据
X = boston.data
y = boston.target
features = boston.feature_names
pipe_SVR = make_pipeline(StandardScaler(),SVR())
score1 = cross_val_score(estimator=pipe_SVR,
                         X = X,
                         y = y,
                         scoring = 'r2',
                         cv = 10)       # 10折交叉验证
print("CV accuracy: %.3f +/- %.3f" % ((np.mean(score1)),np.std(score1)))
>>>CV accuracy: 0.187 +/- 0.649

Step3: 下面我们使用网格搜索来对SVR调参:

from sklearn.pipeline import Pipeline
pipe_svr = Pipeline([("StandardScaler",StandardScaler()),
                                                         ("svr",SVR())])
param_range = [0.0001,0.001,0.01,0.1,1.0,10.0,100.0,1000.0]
param_grid = [{"svr__C":param_range,"svr__kernel":["linear"]},  # 注意__是指两个下划线,一个下划线会报错的
                            {"svr__C":param_range,"svr__gamma":param_range,"svr__kernel":["rbf"]}]
gs = GridSearchCV(estimator=pipe_svr,
                                                     param_grid = param_grid,
                                                     scoring = 'r2',
                                                      cv = 10)       # 10折交叉验证
gs = gs.fit(X,y)
print("网格搜索最优得分:",gs.best_score_)
print("网格搜索最优参数组合:\n",gs.best_params_)

>>>网格搜索最优得分: 0.6081303070817048
网格搜索最优参数组合:
 {'svr__C': 1000.0, 'svr__gamma': 0.001, 'svr__kernel': 'rbf'}

step 4: 使用随机搜索来对SVR调参:

from sklearn.model_selection import RandomizedSearchCV
from scipy.stats import uniform  # 引入均匀分布设置参数
pipe_svr = Pipeline([("StandardScaler",StandardScaler()),
                                                         ("svr",SVR())])
distributions = dict(svr__C=uniform(loc=1.0, scale=4),    # 构建连续参数的分布
                     svr__kernel=["linear","rbf"],                                   # 离散参数的集合
                    svr__gamma=uniform(loc=0, scale=4))

rs = RandomizedSearchCV(estimator=pipe_svr,
                                                     param_distributions = distributions,
                                                     scoring = 'r2',
                                                      cv = 10)       # 10折交叉验证
rs = rs.fit(X,y)
print("随机搜索最优得分:",rs.best_score_)
print("随机搜索最优参数组合:\n",rs.best_params_)
>>>随机搜索最优得分: 0.41965270949834066
随机搜索最优参数组合:
 {'svr__C': 2.317537782011187, 'svr__gamma': 0.008558056985909612, 'svr__kernel': 'rbf'}

可以明显的看到使用超参数调优后模型都获得相应的提高!

参考: Datawhale开源项目:机器学习集成学习与模型融合(基于python)
作者: 李祖贤,陈琰钰,赵可,杨毅远,薛传雨

上一篇 下一篇

猜你喜欢

热点阅读