Data Engineering

3.1.1.5 模型评估与选择

2017-12-25  本文已影响0人  hxiaom

模型评估与选择

原理

《机器学习》周志华

2.1 经验误差与过拟合
2.2 评估方法
2.2.1 留出法
2.2.2 交叉验证法
2.2.3 自助法
2.2.4 调参与最终模型
2.3 性能度量
2.3.1 错误率与精度
2.3.2 查准率、查全率与F1
2.3.3 ROC 与 AUC
2.3.4 代价敏感错误率与代价曲线
2.4 比较检验

-首先,我们希望比较的是泛化性能,然而通过是按评估方法我们获得的是测试集上的性能,两者的对比结果可能未必相同;第二,测试集上的性能与测试集本身的选择有很大关系,且不论使用不同大小的测试集会得到不同的结果,即便用相同大小的测试集,若包含的测试样例不同,测试结果也会有不同;第三,很多机器学习算法本身有一定的随机性,即便用相同的参数设置在同一个测试集上多次运行,其结果也会有不同。

2.4.1 假设检验
2.4.2 交叉检验t检验
2.4.3 McNemar检验
2.4.4 Friedman检验 与 Nemenyi后续检验
2.5 偏差与方差
上一篇 下一篇

猜你喜欢

热点阅读