第二章 模型评估与选择 (需要概率论和数理统计知识)

2020-04-28  本文已影响0人  joy1987

机器学习最终目标就是希望得到泛化误差比较小的模型, 如何利用现有的数据得到泛化误差小的模型以及模型评价的量化标准, 这章的统计学的概念特别多.

概念

评估方法

如何利用现有的数据得到泛化误差小的模型,一般把数据分成训练数据和测试数据,训练数据来训练模型,测试数据来评估模型,把测试误差作为近似的泛化误差。



在统计学中,估计误差是此估计量的期望值与估计参数的真值之差


性能度量

如何量化一个模型的好坏,不仅取决算法和数据,和任务需求也有关, 比如这次疫情,判断阳性一定是阳性,如果把阴性判断为阳性这是不能容忍的。


分类错误样本数占总样本数的比例


分类正确样本数占总样本数的比例

上面都是针对离散变量而言,连续变量使用定积分 ,如上两个指标不能满足一些业务需求

这两个相互矛盾: 比如如果全部判断为真,那么查全率很高,因为把真的都挑出来了,但是查的就不是很准,把很多F都都预测为P了。

根据学习器的预测结果(预测结果通常是一个为T的概率值)进行排序,顺序把样本当正例进行预测,计算P,R值.使用这个两个值可以构建P-R曲线 ,P-R 曲线面积大学习算法优秀,还可以通过BEP来判断当 查准率=查全率 时这个值越大的学习算法越好。 BEP比较简单这个时候使用F1度量
\frac{1}{F1}=\frac{1}{2}*(\frac{1}{P} + \frac{1}{R})
由于在真实的场景中需要根据业务场景来决定对这两个值的偏重读,所有还有F1的加权形式,
\frac{1}{F_{\beta}}=\frac{1}{1+\beta^2}*(\frac{1}{P} + \frac{\beta^2}{R})

\beta>1 偏重查全率 \beta<1 偏重查准率 \beta 怎么取值没有说


根据样本的预测概率进行排序,顺序把样本当正例进行预测,每次计算两个值TPR(和擦recall一样),FPR然后进行得到ROC曲线.
TPR(真正例率): 预测为正且真实也为正的样本数和真实为正样本数比例 = RECALL
FPR(假正例率): 预测为正且真实为负值的样本数和真实为负样本数比例

AOC为ROC曲线的面积. AOC是样本预测的排序质量, 学习器强的AOC的值大
https://datawhalechina.github.io/pumpkin-book/#/chapter2/chapter2

双层累加类似嵌套的for循环 例子

本参数关注预测出错带来的后果, 不仅仅再关注预测成功的比例

cost_(ij) 表示将第i个样本预测为第y类样本的代价. 那个值越大,造成的损失越大 , 所以希望代价敏感的错误率E(f:D:cost)越小 , 使用代价曲线用来判断学习器的好坏, 曲线面积小的好

比较检验

有了评估方法和性能度量,但是还是不够客观, 需要看这个模型真实的效果, 使用了比较假设.

偏差方差

上一篇下一篇

猜你喜欢

热点阅读