百面机器学习|学习笔记

百面机器学习|第十二章集成学习知识点(二)

2019-02-07  本文已影响26人  蓝白绛

前言

如果你能找到这里,真是我的幸运~这里是蓝白绛的学习笔记,本集合主要针对《百面机器学习——算法工程师带你去面试》这本书。主要记录我认为重要的知识点,希望对大家有帮助。

第十二章 集成学习

5、梯度提升决策树的基本原理

  1. 梯度提升决策树(Gradient Boosting Decision Tree,GBDT)是Boosting算法中非常流行的模型。Gradient Boosting是Boosting中的一大类算法,基本思想是根据当前模型损失函数的负梯度信息来训练新加入的弱分类器,然后将训练好的弱分类器以累加的形式结合到现有模型中。采用决策树为弱分类器的Gradient Boosting算法被称为GBDT,有时也称MART(Multiple Additive Regression Tree)。GBDT中使用的决策树通常为CART树
  2. 梯度提升和梯度下降的区别和联系:
提升算法 目标 迭代公式 损失
梯度提升 函数空间F F=F_{t-1}-\rho_t\nabla_FL|_{F=F_{t-1}} L=\sum_il(y_i,F(x_i))
梯度下降 参数空间W w_t=w_{t-1}-\rho_t\nabla_wL|_{w=w_{t-1}} L=\sum_il(y_i,f_w(w_i))
  1. GBDT的优点和局限性:

6、XGBoost与GBDT的联系和区别

  1. XGBoost与GBDT的联系和区别可以总结成以下几个方面:

小结

这是本章的第二部分,主要讲了梯度提升和梯度下降的区别、GBDT的优缺点、XGBoost与GBDT的联系与区别。

结尾

如果您发现我的文章有任何错误,或对我的文章有什么好的建议,请联系我!如果您喜欢我的文章,请点喜欢~*我是蓝白绛,感谢你的阅读!

上一篇 下一篇

猜你喜欢

热点阅读