决策树
2019-01-02 本文已影响6人
geekAppke
决策树的深度:max_depth=2
- 非参数学习
- 可以解决分类问题、多分类问题、回归问题
- 非常好的可解释性
计算信息熵
pruning 剪枝
分的太细的特征,减去
前、后剪枝,都是为了防止过拟合
C4.5
ID3
决策树的学习过程中分为2个阶段,分裂和剪枝
决策树的深度:max_depth=2
pruning 剪枝
分的太细的特征,减去
前、后剪枝,都是为了防止过拟合
C4.5
ID3
决策树的学习过程中分为2个阶段,分裂和剪枝