机器学习_Python算法

机器学习算法——决策树1(基础)

2019-08-20  本文已影响0人  皮皮大

决策树

导读

决策树Decision Tree是一种基本的分类回归方法。决策树模型呈现树形结构,在分类问题上,主要是基于特征对样本实例进行分类。其主要是的优点是:

image.png

决策树三步骤

常用的算法


决策树模型与学习

定义

分类决策树模型是一种描述实例进行分类的树形结构。决策树由决策节点node、分支(也叫有向边directed edge)和叶子leaf组成。节点分为两种:

具体过程:根节点开始,对实例的某一个特征进行分类,根据测试结果,将实例分配到其子节点;子节点对应着该特征的一个取值。递归分配,直至到达叶结点,最后将实例分配到叶结点的类中。

栗子

image.png

决策树与条件概率分布

决策树学习

假设给定一个训练数据集D=\{(x_1,y_1),...,(x_N,y_N)\}其中,x_i=(x_i^{(1)},x_i^{(2)},...,x_i^{(n)})^T为输入实例,或者称之为特征向量(属性),n为特征个数,y_i \in \{1,2,3,...,K\}为输出类的标记i=1,2,3,...,N,N为样本容量。决策树的目标是根据给定的训练集数据构造一个决策树模型,使它能够对实例进行正确地分类。

决策树的本质:是从训练数据集中归纳出一组分了规则。能够对训练数据集进行正确分类的决策树可能有多个,可能一个也没有。决策树学习是由训练数据集估计条件概率模型。

决策树学习的损失函数通常是正则化的极大似然函数,策略是最小化损失函数

决策树学习算法

决策树学习算法通常是一个个递归地选择最优化特征,并且根据该特征对训练数据集进行分割,使得对各个子数据集有一个最好的分类的过程。该过程包含:特征空间的划分 + 决策树的生成。

上一篇下一篇

猜你喜欢

热点阅读