机器学习(九) 随机森林

2019-05-19  本文已影响0人  晓迦

随机森林是在Bagging策略的基础上进行修改后的一种算法。

9.1 算法的基本原理

采取有放回的抽样方式,构造子数据集,保证不同子数据集之间的数量集一样。
利用子数据集来构建子决策树,每个子决策树输出一个结果。
统计子决策树的投票结果,得到最终的分类,就是随机森林的输出结果。
具体的构建过程如下:

9.2 随机森林的优劣势

优势

9.3 sklearn调用及参数解释

class sklearn.ensemble.RandomForestClassifier(
    n_estimators=10, criterion='gini', max_depth=None, 
    min_samples_split=2, min_samples_leaf=1, min_weight_fraction_leaf=0.0,
    max_features='auto', max_leaf_nodes=None, min_impurity_decrease=0.0, 
    min_impurity_split=None, bootstrap=True, oob_score=False, n_jobs=1, 
    random_state=None, verbose=0, warm_start=False, class_weight=None)

因为随机森林是很多个决策树并行计算,所以随机森林的很多参数与决策树的类似。
(1) 决策树参数:

上一篇下一篇

猜你喜欢

热点阅读