集成学习

2020-06-22  本文已影响0人  还闹不闹

参考:
一文搞定GBDT、Xgboost和LightGBM的面试
机器学习算法之LightGBM
LightGBM两种使用方式
lightgbm做二分类,多分类以及回归任务(含python源码)
Adaboost、GBDT与XGBoost的区别
Adaboost、GBDT、XGBoost的对比理解

集成学习的方法包括:Bagging(无依赖)、boosting(有依赖)、stack

梯度上升用于求局部最大值,梯度下降用于求局部最小值。

上一篇 下一篇

猜你喜欢

热点阅读