混淆矩阵

2019-08-29  本文已影响0人  RossH

简介

混淆矩阵是衡量分类模型准确度中最基本、直观,计算最简单的方法。混淆矩阵就是一张表,展示预测值各类归对、归错的个数。下面放个小例子。

小例子

上面的小例子是分类问题中最简单的二分类,只需要判断结果是0还是1,或者说是negative还是positive。

表中已经给出四种结果,这四种是混淆矩阵的四个基础指标:

将这四个指标一起呈现在表格中,就能得到混淆矩阵(Confusion Matrix),如下图。

混淆矩阵

sklearn中混淆矩阵

sklearn.metrics.confusion_matrix(y_true, y_pred, labels=None, sample_weight=None)

函数功能:

计算混淆矩阵以评估分类器的准确性。

在混淆矩阵C中,C_{i,j}的含义是实际上是i类但被错误预测为j类的样本个数。

所以在二分类中,True Negative的个数是C_{0,0},False Negative的个数是C_{1,0},True Positive的个数是C_{1,1},False Positive的个数是C_{0,1}

参数

返回值

示例

>>> y_true = [2, 0, 2, 2, 0, 1]
>>> y_pred = [0, 0, 2, 2, 0, 2]
>>> confusion_matrix(y_true, y_pred)
array([[2, 0, 0],
       [0, 0, 1],
       [1, 0, 2]])
>>> y_true = ["cat", "ant", "cat", "cat", "ant", "bird"]
>>> y_pred = ["ant", "ant", "cat", "cat", "ant", "cat"]
>>> confusion_matrix(y_true, y_pred, labels = ['bird','ant','cat'])
array([[0, 0, 1],
       [0, 2, 0],
       [0, 1, 2]])

在二分类问题中,我们可以提取True Positive等值,如下所示。

>>> tn, fp, fn, tp = confusion_matrix([0, 1, 0, 1], [1, 1, 1, 0]).ravel()
>>> (tn, fp, fn, tp)
(0, 2, 1, 1)

衍生指标

其中,Precision和Recall可以看下面的具体例子。

四种指标的公式和含义见下表。

公式 含义
准确率ACC Accuracy = \frac{TP + TN}{TP + TN + FP + FN} 所有预测正确的结果占总观测值的比例
精确率PPV Precision = \frac{TP}{TP + FP} 所有判断为Positive的结果中,分类正确的比例
灵敏度TPR Recall = \frac{TP}{TP + FN} 在所有真实值为Positive的结果中,分类正确的比例
特异度TNR Specificity = \frac{TN}{TN + FP} 在所有真实值为Negative的结果中,分类正确的比例

其中,将PrecisionRecall组合计算可以得到一个称为F1 score 的指标,如果召回和精确度都很高,分类器将获得高F 1分数。

F_1 = 2\over {1\over precision}+{1\over recall} = 2× precision×recall\over precision+recall = TP\over {TP}+{FN + FP\over 2}

代码示例

>>> from sklearn.metrics import precision_score, recall_score, f1_score
>>> y_true = [0, 0, 1, 0, 1, 0]
>>> y_pred = [0, 1, 0, 1, 1, 0]
>>> precision_score(y_true, y_pred)
0.3333333333333333
>>> recall_score(y_true, y_pred)
0.5
>>> f1_score(y_true, y_pred)
0.4

都看到最后了,要不~点个赞?加波关注?

上一篇 下一篇

猜你喜欢

热点阅读