14.决策树碎碎念

2016-03-05  本文已影响310人  袁一帆

属性选择

属性的感觉就是最大限度的增加样本的纯度,并且不要产生产生样本数少的分枝。

属性选择标准有信息增益(Information Gain)和Gini系数
信息增益作为标准时,选择信息增益大的作为分裂点
Gini是一种不纯度函数,衡量数据关于类别的纯度,数据均匀分布于各个类别时,不纯度就很大

大小规模合适的树

  1. 树停止生长的条件(最小划分实例数,划分阈值,最大树深度)
  2. 对完全生长的树进行剪枝(评估子树,如去掉性能更好,则进行剪枝)

ID3

思想:选信息增益大的属性建立分支,递归选取知道子树只包含一个类别的数据

自顶向下的贪婪的搜索算法,构造出与训练数据一致的决策树
用信息增益作为属性选择的标准,使划分后的数据集的信息熵最小

ID3的问题

C4.5

不同于ID3

Paste_Image.png
属性值越多,分布越平均的分裂信息越大,对应的信息增益率则越小

对于连续值的求解

Paste_Image.png
处理缺失值,这个ID3也没有

剪枝

不用预剪枝是因为预剪枝对不同数据的表现很不一样

后剪枝方法
预剪枝方法
C4.5后剪枝

针对每个节点,以其中的类别众数作为预测类别
利用每个节点的错误率,根据假设正态分布对真实误差进行估计

悲观误差剪枝

CART树

改进ID3的3个方面

特征双化

构建二叉树,双化时尽量时2个类别的输出差异性的和,保持最小,就是纯度最大。

具体操作就是穷举法,对每对都计算Gini系数(带全局的权重),然后选择Gini系数最大的呢一组,这种感觉就是选最不纯的一组,用你的下限去和别的属性竞争,以达到全局的最优

上一篇 下一篇

猜你喜欢

热点阅读