2019-05-30(机器学习——集成学习)

2019-05-30  本文已影响0人  雨住多一横

参考原文

前言

如同人无完人,机器学习中要学习一个泛化能力完美(适用于各类数据)的模型是相当困难的,甚至是不可能的,我们只能得到有某种偏好的模型(对某些类型的数据集的泛化能力强)。集成学习的基本思想就是组合弱分类器来实现一个强分类器,不同的集成方法在具体实现上各有不同,主要体现在:数据集的采集、弱分类器的训练次序、模型的组合方式上,下面将作一个具体的介绍

集成方法

集成学习将不同的机器学习几乎通过组合的方式,得到一个效果更好的模型,以达到减少方差(bagging)、偏差(boosting)或改进预测(stacking)的效果。
集成方法一种分类方法如下:

bagging(bootstrap aggregating,装袋)

总结:

典型算法

boosting

boost的两个核心问题:

Stacking

stacking是指先用bagging的方法得到多个弱分类器,然后用各个弱分类器的结果作为出入,训练一个强分类器,理论上,stacking可以表前两种集成方法(bagging、boosting),只需要采用合适的模型组合策略即可,实际中,常用的是logistic回归作为组合策略。
流程图如下:
原图

决策树和上述集成方法的组合

bagging + DT:随机森林
AdaBoost + DT:提升树
Gradient Boosting + DT:GBDT

上一篇 下一篇

猜你喜欢

热点阅读