工作生活

GBDT

2019-06-30  本文已影响0人  菜鸟瞎编

GBDT 是一种 Boosting算法,Boosting是集成算法的一种。

首先我们需要知道什么是集成学习?
集成学习是通过训练弱干个弱学习器,并通过一定的结合策略,从而形成一个强学习器。
整个过程有两个难点:

先来看第一个问题如何获取个体学习器,在选择上有两个:

其中用的比较多的是同质学习器。同质学习器按照个体学习器之间是否存在依赖关系可以分为两类:

简单来说,Boosting就是通过集成一系列有强依赖关系的弱学习器从而形成强学习器的方法。

DT-Decision Tree决策树,GB是Gradient Boosting,是一种学习策略,GBDT的含义就是用Gradient Boosting的策略训练出来的DT模型。模型的结果是一组回归分类树组合(CART Tree Ensemble):T_1...T_k。其中 T_j 学习的是之前j-1棵树预测结果的残差,通过学习残差由弱学习器集成强学习器。

GBDT原理及实现(XGBoost+LightGBM)
GBDT的原理和应用

image.png

gbdt的残差为什么用负梯度代替? - 奥奥奥奥噢利的回答 - 知乎
https://www.zhihu.com/question/63560633/answer/581670747

image.png
image.png

无论损失函数是什么形式,决策树拟合的都是负梯度,不是用负梯度代替残差。只是当损失函数是均方误差时,负梯度刚好是残差。

GBDT、XGBoost、LightGBM的区别和联系

Boosting
boosting 3大算法总结
第06章:深入浅出ML之Boosting家族
机器学习:集成学习算法Bagging,Boosting

上一篇 下一篇

猜你喜欢

热点阅读