决策树算法

2018-05-14  本文已影响0人  遇见百分百

机器学习中分类和预测算法:

准确率、速度、强壮性、可规模性、可解释性特点

1、什么是决策树?

    判定树为一个流程图的树结构,每一个内部节点为一个属性,叶子节点为输出的对象,树的最顶层为根节点。

决策树图样

2、决策树的构造和节点的确定?

2.1熵的概念,信息和抽象,如何度量?1948年,香农提出了 ”信息熵(entropy)“的概念, 一条信息的信息量大小和它的不确定性有直接的关系,要搞清楚一件非常非常不确定的事情,或者 是我们一无所知的事情,需要了解大量信息==>信息量的度量就等于不确定性的多少? 例子:猜世界杯冠军,假如一无所知,猜多少次? 每个队夺冠的几率不是相等的, 比特(bit)来衡量信息的多少?

比特衡量信息量的大小

信息获取量(Information Gain):Gain(A) = Info(D) - Infor_A(D) 通过A来作为节点分类获取了多少信息

例子

     类似,Gain(income) = 0.029, Gain(student) = 0.151, Gain(credit_rating)=0.048 所以,选择age作为第一个根节点

结果

3算法流程:

(1)如果样本都在同一个类,则该结点成为树叶,并用该类标号(步骤2 和3)。

(2)否则,算法使用称为信息增益的基于熵的度量作为启发信息,选择能够最好地将样本分类的属性(步骤6)。该属性成为该结点的“测试”或“判定”属性(步骤7)。在算法的该版本中,

(3)所有的属性都是分类的,即离散值。连续属性必须离散化。

(4)对测试属性的每个已知的值,创建一个分枝,并据此划分样本(步骤8-10)。

(5)算法使用同样的过程,递归地形成每个划分上的样本判定树。一旦一个属性出现在一个结点上,就不必该结点的任何后代上考虑它(步骤13)。

递归划分步骤仅当下列条件之一成立停止:

(a) 给定结点的所有样本属于同一类(步骤2 和3)。

(b) 没有剩余属性可以用来进一步划分样本(步骤4)。在此情况下,使用多数表决(步骤5)。

这涉及将给定的结点转换成树叶,并用样本中的多数所在的类标记它。替换地,可以存放结

点样本的类分布。

(c) 分枝

test_attribute = a i 没有样本(步骤11)。在这种情况下,以 samples 中的多数类

创建一个树叶(步骤12)

4、其他算法

               Classification and Regression Trees (CART): (L. Breiman, J. Friedman, R. Olshen, C. Stone)

               共同点:都是贪心算法,自上而下(Top-down approach)

               区别:属性选择度量方法不同: C4.5 (gain ratio), CART(gini index), ID3 (Information Gain)

4、树剪枝(避免overfitting)

    4.1先剪枝、后剪枝

5. 决策树的优点:

     直观,便于理解,小规模数据集有效     

6. 决策树的缺点:

     处理连续变量不好、类别较多时,错误增加的比较快、可规模性一般

算法实现(Python)


from sklearn.feature_extractionimport DictVectorizer

import csv

from sklearnimport preprocessing

from sklearnimport tree

from sklearn.externals.siximport StringIO#格式的预处理

#读取文件

allElectronicsData=open(r'test.csv','rt')#读取csv文件

reader=csv.reader(allElectronicsData)

headers=next(reader)#定义的第一行

print(headers)

featureList=[]#数据的输入特性,使用的是数值型的值

labelList=[]

for rowin reader:

labelList.append(row[len(row)-1])#添加标签,取每行的最后一个数字

#print(labelList)

    rowDict={}#取每行的特征值

    for iin range(1,len(row)-1):

rowDict[headers[i]]= row[i]#每一行设置字典项

    featureList.append(rowDict)

print(featureList)

vec=DictVectorizer()#直接在vec对象上调用方法,对于feature值的转化,转化为0或1的属性

dummyX=vec.fit_transform(featureList).toarray()

print("dummyX:"+str(dummyX))

print(vec.get_feature_names())

print("labelList:"+str(labelList))

lb=preprocessing.LabelBinarizer()#对于label的转化

dummyY=lb.fit_transform(labelList)

print("dummyY:"+str(dummyY))

clf=tree.DecisionTreeClassifier(criterion='entropy')#分类树的参数的选取,基于信息熵来度量标准

clf=clf.fit(dummyX,dummyY)#填入参数,调用fit,构建决策树

print("clf:"+str(clf))

with open("test.dot",'w')as f:

f=tree.export_graphviz(clf,feature_names=vec.get_feature_names(),out_file=f)

#将原0、1的数值转化为属性值

# predict

oneRowX = dummyX[0, :]

print("oneRowX:" +str(oneRowX))

# 修改这一行的数据,然后执行

newRowX = oneRowX

newRowX[0] =1

newRowX[1] =0

print("newRowX:" +str(newRowX))

# 添加一个中括号

predictedY = clf.predict([newRowX])

# print(help(clf.predict))

print("predictedY:" +str(predictedY))

# 将dot文件转化为pdf文件,dot -Tpdf iris.dot -o outpu.pdf

# 决策树转化

# dot -Tpdf D:\PythonWork\TeachingPython\src\DecsionTree\test.dot -o D:\PythonWork\TeachingPython\src\DecsionTree\outpu.pdf

上一篇下一篇

猜你喜欢

热点阅读