机器学习之旅

集成学习需要理解的一些内容

2019-12-06  本文已影响0人  slade_sal

本系列为深入篇,尽可能完善专题知识,并不会所有的都会出现在面试中,更多内容,详见:Reflection_Summary,欢迎交流。

另外,欢迎大家关注我的个人bolg知乎,更多代码内容欢迎follow我的个人Github,如果有任何算法、代码疑问都欢迎通过邮箱发消息给我。


介绍一下Boosting的思想?

最小二乘回归树的切分过程是怎么样的?

有哪些直接利用了Boosting思想的树模型?

adaboost,gbdt等等

gbdt和boostingtree的boosting分别体现在哪里?

gbdt的中的tree是什么tree?有什么特征?

Cart tree,但是都是回归树

常用回归问题的损失函数?

常用分类问题的损失函数?

什么是gbdt中的残差的负梯度?

image 当loss函数为均方误差 image

,gbdt中的残差的负梯度的结果y-H(x)正好与boostingtree的拟合残差一致

如何用损失函数的负梯度实现gbdt?

拟合损失函数的负梯度为什么是可行的?

即便拟合损失函数负梯度是可行的,为什么不直接拟合残差? 拟合负梯度好在哪里?

Shrinkage收缩的作用?

每次走一小步逐渐逼近结果的效果,要比每次迈一大步很快逼近结果的方式更容易得到精确值,即它不完全信任每一棵残差树,认为每棵树只学到了真理的一部分累加的时候只累加了一小部分多学几棵树来弥补不足。 这个技巧类似于梯度下降里的学习率

feature属性会被重复多次使用么?

会,同时因为特征会进行多次使用,特征用的越多,则该特征的重要性越大

gbdt如何进行正则化的?

为什么集成算法大多使用树类模型作为基学习器?或者说,为什么集成学习可以在树类模型上取得成功?

gbdt的优缺点?

优点:

缺点:

gbdt和randomforest区别?

GBDT和LR的差异?

XGboost缺点

LightGBM对Xgboost的优化

LightGBM亮点

xgboost对比gbdt/boosting Tree有了哪些方向上的优化?

xgboost和gbdt的区别?

xgboost优化目标/损失函数改变成什么样?

xgboost如何使用MAE或MAPE作为目标函数?

MAE: image
MAPE: image

xgboost如何寻找分裂节点的候选集?

xgboost如何处理缺失值?

xgboost在计算速度上有了哪些点上提升?

xgboost特征重要性是如何得到的?

XGBoost中如何对树进行剪枝?

XGBoost模型如果过拟合了怎么解决?

xgboost如何调参数?

上一篇下一篇

猜你喜欢

热点阅读