GBDT 、xgBoost、LightGBM

2018-01-22  本文已影响0人  yz_wang
GBDT

Gradient Boosting Decision Tree
GBDT是一种迭代的决策树算法,由多课决策树组成,分类的话是每棵树的结果投票决定,回归的话是每棵树的结果相加得到。

GBDT中的决策树指的是CART的回归树。回归树总体流程类似于分类树,区别在于,回归树的每一个节点都会得一个预测值,以年龄为例,该预测值等于属于这个节点的所有人年龄的平均值。分枝时穷举每一个feature的每个阈值找最好的分割点,但衡量最好的标准不再是最大熵,而是最小化平方误差。因为分类的结果不好叠加,所以才用回归树。
为了防止过拟合,剪枝操作。有预剪枝和
C4.5分类树在每次分枝时,是穷举每一个feature的每一个阈值,找到使得按照feature<=阈值,和feature>阈值分成的两个分枝的熵最大的feature和阈值(熵最大的概念可理解成尽可能每个分枝的男女比例都远离1:1),按照该标准分枝得到两个新节点,用同样方法继续分枝直到所有人都被分入性别唯一的叶子节点,或达到预设的终止条件,若最终叶子节点中的性别不唯一,则以多数人的性别作为该叶子节点的性别。

梯度提升指的是每棵树都是在上一棵树的残差上来继续训练的。所以才说,回归的最后结果是所有树结果的加和。
损失函数MSE,梯度迭代求到后正好是2倍的残差。

xgBoost

rf:https://xgboost.readthedocs.io/en/latest/model.html
https://www.jianshu.com/p/7467e616f227

GBM(Boosted trees)指通过不断地拟合去拟合出函数来。每次迭代都增加一棵树(一个new function)。
xgBoost本质也是一堆cart树,对于分类问题,由于CART树的叶子节点对应的值是一个实际的分数,而非一个确定的类别,这将有利于实现高效的优化算法。xgboost出名的原因一是准,二是快,之所以快,其中就有选用CART树的一份功劳。


迭代过程

第t棵树的优化目标函数是均方差损失函数+正则。当MSE作为损失函数时,目标函数包含残差和新一棵树预测结果的平方。


将迭代公式带入目标函数 泰勒二阶展开后的目标函数

二次展开的好处:

寻找最佳树结构:
对于第t棵树的优化目标函数,我们继续推导:



Ij代表一个集合,集合中每个值代表一个训练样本的序号,整个集合就是被第t棵CART树分到了第j个叶子节点上的训练样本。


继续简化
由此推导出最佳值:

split点的评判标准:


这个Gain实际上就是单节点的obj减去切分后的两个节点的树obj,Gain如果是正的,并且值越大,表示切分后obj越小于单节点的obj,就越值得切分。同时,我们还可以观察到,Gain的左半部分如果小于右侧的γ,则Gain就是负的,表明切分后obj反而变大了。γ在这里实际上是一个临界值,它的值越大,表示我们对切分后obj下降幅度要求越严。这个值也是可以在xgboost中设定的。
注意:xgboost的切分操作和普通的决策树切分过程是不一样的。普通的决策树在切分的时候并不考虑树的复杂度,而依赖后续的剪枝操作来控制。xgboost在切分的时候就已经考虑了树的复杂度,就是那个γ参数。所以,它不需要进行单独的剪枝操作。
LightGBM

分布式 GBDT。速度快!
它抛弃了大多数 GBDT 工具使用的按层生长
(level-wise) 的决策树生长策略,而使用了带有深度限制的按叶子生长 (leaf-wise) 算法。leaf-wise则是一种更为高效的策略,每次从当前所有叶子中,找到分裂增益最大(一般也是数据量最大)的一个叶子,然后分裂,如此循环。因此同 level-wise 相比,在分裂次数相同的情况下,leaf-wise 可以降低更多的误差,得到更好的精度。leaf-wise 的缺点是可能会长出比较深的决策树,产生过拟合。因此 LightGBM 在leaf-wise 之上增加了一个最大深度的限制,在保证高效率的同时防止过拟合。

上一篇下一篇

猜你喜欢

热点阅读