决策树中的信息增益、信息增益比和基尼系数
前面的信息论已经简单介绍了信息熵的概念。在决策树算法中,也使用到了信息增益来构建决策树。下面会通过一个通俗的例子理解信息增益与信息增益率。
信息增益 information gain
在决策树算法中,存在多个特征,那么在生成决策树时优先选取哪个特征呢? 这就是由信息增益说了算。信息增益高,说明该特征比较重要,因为它带来的信息量变化大。
信息增益的公式如下,即 信息熵-条件熵
以下是具体的例子:
以上总共有17个数据,D表示第k类样本所占比例,这里k为2,即是否为好瓜。好瓜的比例 不好的瓜的比例是。
1. 信息熵
2.色泽的条件熵
我这里想计算色泽的信息增益,于是我还需要计算色泽的条件熵
条件概率公式为
这里色泽为{青绿、乌黑、浅白}
青绿色总共有6个,其中正例为3/6,反例为3/6
乌黑的总共有6个,其中正例为4/6,反例为2/6
浅白的总共有5个,其中正例为1/5,反例为4/5
色泽的条件熵
3. 色泽的信息增益
同理,可以计算出其他特征的信息增益
可见纹理的信息增益最大,即在以上几个特征中,纹理的信息会比较大的影响一个瓜的好坏。在决策树算法中,则会优先选择该特征作为当前节点。
信息增益率 gain ratio
实际上,信息增益会偏好于取值数目较多的属性,而信息增益率能够避免这个影响。其公式如下
其中 被称为属性a的固有值 intrinstic value.
属性a的取值数量越多,则的值通常会更大
基尼指数 Gini index
不管是信息增益还是信息增益率,都存在大量的对数运算,而在Cart的决策树算法中,就是使用基尼系数来表示信息的纯度,因为它在简化模型计算的同时又保留了信息熵的特性。
对于分类问题,如果数据集有k个分类,并且第k个分类的概率为,数据集D的纯度可以用基尼值来度量,则其基尼指数为:
反映的是从D中随机抽取两个样本,其类别标记为不一致的概率;越小,数据纯度越高。
对于样本D,如果根据特征a有v种可能,则其基尼指数为
在特征选取中,会优先选择基尼指数最小的属性作为优先划分属性