机器学习算法

什么是好的模型结果?(监督学习模型的衡量)

2018-06-01  本文已影响135人  esskeetit
  1. 连续变量的模型,如何来衡量模型结果?(回归)
  2. 二分类问题

3.多分类模型如何衡量模型结果?
4.imbalanced问题


image.png
image.png

2. 连续变量的模型,如何来衡量模型结果?

image.png

误差:观测值和真值之间的差别
残差:预测值和观测值之间的差别

image.png

3. 二分类问题

  1. 假设检验

我们这⾥不涉及任何具体的统计分布


image.png image.png image.png image.png

α=false positive rate
β=false negative rate
power =1−β = true positive rate

0.横纵坐标 横坐标:false positive 纵坐标:true positive

  1. 一般来说面积>0.5

  2. 斜率为正

3.位于45°线上方

image.png image.png image.png image.png image.png image.png image.png image.png

计算F1 score

import numpy as np
import pandas as pd
import matplotlib.pyplot as plt
%matplotlib inline
from sklearn.metrics import f1_score
y_true =  [0,0,0,0,1,0,0,0,0,1,1,1,1,0,0,0,1,1,1,0,0,0,0,0,0]
y_pred =  [0,0,0,0,1,1,0,0,0,0,0,1,0,1,1,0,0,1,1,0,0,0,1,0,1]
f1_score(y_true,y_pred)
from sklearn.metrics import precision_score, recall_score, accuracy_score
from sklearn.metrics import
precision_score(y_true, y_pred)
recall_score(y_true,y_pred) 
y_true =  [0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,1,1,1,0,0,0,0,0,0]
y_pred =  [0,0,0,0,0,0,0,0,0,0,0,0,1,1,0,0,0,0,1,0,1,1,1,0,0]
from sklearn.metrics import f1_score,accuracy_score,precision_score,recall_score
accu=accuracy_score(y_true,y_pred)    #分类准确率
prec = precision_score(y_true,y_pred) #准确度
reca = recall_score(y_true,y_pred)  #召回率
F1_score = f1_score(y_true,y_pred)  

练习计算与画ROC

  1. 生成原始数据
  2. 使用模型进行分类
  3. 用ROC进行效果衡量
from sklearn.datasets import make_classification
from sklearn.linear_model import LogisticRegression
from sklearn.cross_validation import train_test_split

X,y = make_classification(n_samples=10000,n_features=10,n_classes=2,n_informative=5) #特征,标签
X_train,X_test, y_train,y_test = train_test_split(X,y, test_size=0.2,random_state=0)
clf = LogisticRegression()
clf.fit(X_train,y_train)

from sklearn.metrics import roc_auc_score,roc_curve
preds = clf.predict_proba(X_test)[:,1]
fpr,tpr,_=roc_curve(y_test,preds)

df = pd.DataFrame(dict(fpr=fpr,tpr=tpr))
roc_auc= roc_auc_score(y_test,preds)
plt.figure(figsize=[9,8])
lw = 2
    
plt.plot(fpr, tpr, color='orange',
         lw=lw, label='ROC curve (area = %0.2f)' % roc_auc)
plt.plot([0, 1], [0, 1], color='navy', lw=lw, linestyle='--')
plt.xlim([0.0, 1.0])
plt.ylim([0.0, 1.05])
plt.xlabel('False Positive Rate')
plt.ylabel('True Positive Rate')
plt.title('Receiver operating characteristic Line')
plt.legend(loc="lower right")
plt.show()

4. 多分类模型,如何衡量模型结果?

image.png

5. imbalanced问题

如何应对imbalanced datasets?

  1. 使用合适的衡量方式

    • F1
  2. 重新采样(resampling)

    • random under-sampling
      • 原有分布:负样本980,正样本20
      • under-sampling后:负样本98,正样本20
      • 优点:
        • 提升运算效率,减少运算时间
      • 缺点:
        • 有可能丢失重要的信息
        • 对总体的估计可能是有偏差的
    • random over-sampling
      • 原有分布:负样本980,正样本20
      • over-sampling后:负样本980,正样本500
      • 优点:
        • 保留了所有有用信息
      • 缺点:
        • 有可能overfiting,过拟合
    • 基于cluster 的重新采样(先用聚类方法找出子类)
      • 原有分布:负样本3类:每类数量 200,400,380,正样本两类:每类数量 13,7
      • 重新采样后:负样本3类:数量 300,300,300,正样本两类:每类数量 150,150
      • 优点:
        • 既解决不同类的样本不均等,又解决同类中子类间的样本不均等
      • 缺点:
        • 有可能过拟合
    • 合成数据 <span style="color:blue">SMOTE</span>
      • 原有分布:负样本980,正样本20
      • 合成数据后后:负样本980,正样本500 (非重复采样,而是生成正样本数据))
        <img src='./smote.png',width=500>
      • 优点:
        • 保留负样本所有信息
        • 减缓过拟合
      • 缺点:
        • SMOTE生成的数据可能引入更多的噪音
        • 对高维的数据效果不好
  3. 集成算法

上一篇 下一篇

猜你喜欢

热点阅读