@IT·互联网代码改变世界程序员

十分钟了解决策树

2017-03-05  本文已影响750人  littlehei
鸢尾花数据集上描绘决策树的决策面图

决策树是一种非参数的监督学习方法,可用于分类和回归的应用中。旨在通过数据学习出简单的决策规则来创建模型,进而预测和判定目标变量的结果。

** 决策树的工作原理 **

顾名思义,决策树以「树」这样的数据结构来进行分类或预测决策,在分类应用中,树中的每个节点构成类标签,叶子节点就是最终的分类类标号;树中的分支由决策规则组成。

一旦决策树构造好了,对目标变量进行分类时,从树的根节点开始,依次经过不同的规则分支,达到叶子节点,该叶子节点的类标号即为该目标变量的分类结果。

** 如何构造决策树 **

构造决策树的步骤为:
1、开始的时候,所有记录当作一个节点;
2、选择一个属性测试条件用于分割节点,往往需要遍历每一种分割方式,以找到最好的分割点;
3、将节点分割,作为其子节点,如分割成N1和N2;
4、对子节点,如N1和N2,继续执行第2、3步,直到节点满足停止分割的条件

从步骤中,我们可以看出,整个算法必须解决「如何停止分割」和「如何选择分割」两个关键问题。

为此,需要引入不纯度来度量每个节点,即度量节点中的记录够不够纯净,是否都是同一类别的记录。不纯度的计算方式包括:
1、熵, Entropy = - sum( p(i) * log(p(i)) )
2、Gini不纯度,Gini = 1 - sum( p(i) * p(i) )
3、错误率,Error = 1 - max(p(i))
注:p(i)为节点中第i种类别记录的占比。

一种停止分割的方法是,当节点的不纯度满足一定条件时,则不再对该节点继续分割。而属性测试条件的选择也可用不纯度来衡量,当父节点和子节点不纯度差别越大时,说明分割得越好。

若想了解具体的实现,可参考决策树的scikit-learn源码

** 决策树的优缺点 **

优点
缺点
剪枝

当构造的决策树节点过多,显得过于复杂、过于「茂盛」时,就容易出现过拟合的现象,此时需要对树进行剪枝。剪枝方法包括前置剪枝和后置剪枝,也叫先剪枝和后剪枝。

前置剪枝,即在构造树的时候就进行剪枝,这样在产生完全拟合训练数据之前就停止决策树的生长了。为做到这一点,通常采用更具有限制性的分割结束条件,如控制节点数,设置较高的分割阈值等。

后置剪枝,初始决策树按照最大规模生长,完全拟合训练数据,然后在进行剪枝步骤,如用新的叶子节点替换子树,或用子树中最常见的分支代替子树。

** 示例 **

下面示例使用决策树对鸢尾花进行分类计算,scikit-learn自带的鸢尾花数据集中有4个属性,示例中将每两两属性为一组,使用决策树从训练数据中学习得到对应的分类阈值规则,然后组成分类的决策边界。

示例绘制了决策树分类结果的决策面,该示例来源于scikit-learn,详细代码如下:

# -*- coding: utf-8 -*-

import numpy as np
import matplotlib.pyplot as plt

from sklearn.datasets import load_iris
from sklearn.tree import DecisionTreeClassifier

# 参数
n_classes = 3
plot_colors = "bry"
plot_step = 0.02

# 鸢尾花数据加载
iris = load_iris()

# 鸢尾花数据有4个属性,取两两属性为一组,遍历
for pairidx, pair in enumerate([[0, 1], [0, 2], [0, 3],
                                [1, 2], [1, 3], [2, 3]]):
    # 每次取两个属性的数据
    X = iris.data[:, pair]
    y = iris.target

    # 训练分类器
    clf = DecisionTreeClassifier().fit(X, y)

    # 绘制决策边界,共2行3列6个子图,每组属性画一个图
    plt.subplot(2, 3, pairidx + 1)

    # 生成坐标矩阵数据
    x_min, x_max = X[:, 0].min() - 1, X[:, 0].max() + 1
    y_min, y_max = X[:, 1].min() - 1, X[:, 1].max() + 1
    xx, yy = np.meshgrid(np.arange(x_min, x_max, plot_step),
                         np.arange(y_min, y_max, plot_step))

    # 使用分类器计算每个坐标点的分类,并绘制分类结果矩阵的等高线
    Z = clf.predict(np.c_[xx.ravel(), yy.ravel()])
    Z = Z.reshape(xx.shape)
    cs = plt.contourf(xx, yy, Z, cmap=plt.cm.Paired)

    # 使用属性特征名作为横纵坐标名
    plt.xlabel(iris.feature_names[pair[0]])
    plt.ylabel(iris.feature_names[pair[1]])
    plt.axis("tight")

    # 绘制训练数据点,并用不同颜色区分
    for i, color in zip(range(n_classes), plot_colors):
        idx = np.where(y == i)
        plt.scatter(X[idx, 0], X[idx, 1], c=color, label=iris.target_names[i],
                    cmap=plt.cm.Paired)

    plt.axis("tight")

plt.suptitle("Decision surface of a decision tree using paired features")
plt.legend()
plt.show()

更多有关决策树的内容见这里

(全文完)

上一篇下一篇

猜你喜欢

热点阅读