笔记1:机器学习中的评估指标

2018-12-08  本文已影响0人  _叶辉

0.混淆矩阵

实际中的混淆矩阵也有可能Negative在前,Positive在后,具体如何定完全由人来决定

1.准确率(Accuracy)

accuracy=\frac{所有预测结果符合实际的个数}{所有值个数}

                    =\frac{TP+TN}{TP+FN+FP+TN} =\frac{a+n}{a+b+m+n}

2.精度(Precision)(对某一预测指标而言)

precision=\frac{预测结果与实际相符的个数}{预测结果的总个数}

                     =\frac{TP}{TP+FP} =\frac{a}{a+m} \iff \frac{n}{b+n} =\frac{TN}{TN+FN}

3.召回率(查全率)(Recall)(对某一结果而言)

recall=\frac{预测结果与实际相符的总个数}{实际结果的总个数}

              =\frac{TP}{TP+FN} =\frac{a}{a+b} \iff \frac{n}{m+n} =\frac{TN}{FP+TN}

4.F1-score

精度与召回率的调和平均数

f1\_score=2*\frac{precision*recall}{precision+recall}

5.Fβ-score(β的取值大小取决于评估指标偏向精度抑或是召回率)

fβ\_score=(1+β^2 ) \frac{precision*recall}{β^2*precision+recall}

当β=0时,f_β_score = precision

当β=∞时,f_β_score = recall

当β=1时,f_β_score = f1_score

6.R2-score(决定系数,拟合优度)

r2\_score=1-\frac{预测数据与真实数据的方差}{实际数据与均值的方差} =1-\frac{\sum\nolimits(y\_true-y\_pred)^2}{\sum\nolimits(y\_true-\bar {y})^2}

一般地,r2_score\in (0,1),

若预测不准确,则\sum(y\_true-y\_pred)^2就越大,r2_score趋于0;

若预测结果与实际越接近,则\sum(y\_true-y\_pred)^2就越小,r2_score趋于1.

7.ROC曲线

上一篇下一篇

猜你喜欢

热点阅读