机器学习

XGB算法梳理

2019-04-09  本文已影响0人  凌霄文强

算法原理

XGB(extreme gradient boosting)是GBDT的一种工业实现,也是通过不断增加新树,拟合伪残差去降低损失函数。其拟合过程是使用的损失函数的二阶泰勒展开,这是和GBDT的一个区别。

损失函数

L(\theta)=\sum_{i}\left(y_{i}-\hat{y}_{i}\right)^{2}

分裂结点算法

正则化

\Omega(f)=\gamma T+\frac{1}{2} \lambda \sum_{j=1}^{T} w_{j}^{2}
叶子节点数和叶节点权重

对缺失值处理

XGB中允许缺失值存在。在找分裂点时,不遍历迭代缺失样本,减少计算,分配样本时,缺失的样本同时分到左右子树,计算哪边的增益大就自动分到哪边去。但在测试时如果遇到缺失值,会分到右子树。

优缺点

优点(快速高效可容错)

缺点:

应用场景

分类,回归

sklearn参数

上一篇 下一篇

猜你喜欢

热点阅读