大师兄的数据分析学习笔记(二十二):逻辑回归(Logistic

2022-08-19  本文已影响0人  superkmi

大师兄的数据分析学习笔记(二十一):线性回归
大师兄的数据分析学习笔记(二十三):人工神经网络

一、逻辑斯特征增长模型

  • N为种群数量。
  • t为时间。
  • 其中N_0为原始种群大小。

二、逻辑回归

  • 公式的值域是从0到1。
  • 通过回归方程计算出的值,以0.5为界进行分类判断。
  • 逻辑回归不是完全意义上的非线性回归
  • 逻辑回归的值域是有限的,而线性回归的值域是无穷大。
  • 在线性可分的情况下,用逻辑回归形成边界:
  • 在不可分的情况下,需要在高维空间中进行映射:


三、代码实现

>>>import os
>>>import pandas as pd
>>>import numpy as np
>>>from sklearn.model_selection import train_test_split
>>>from sklearn.metrics import  accuracy_score,recall_score,f1_score
>>>from sklearn.linear_model import LogisticRegression

>>>models = []
>>>models.append(("logistic",LogisticRegression(solver='sag')))

>>>df = pd.read_csv(os.path.join(".", "data", "WA_Fn-UseC_-HR-Employee-Attrition.csv"))
>>>X_tt,X_validation,Y_tt,Y_validation = train_test_split(df.JobLevel,df.JobSatisfaction,test_size=0.2)
>>>X_train,X_test,Y_train,Y_test = train_test_split(X_tt,Y_tt,test_size=0.25)

>>>for clf_name,clf in models:
>>>    clf.fit(np.array(X_train).reshape(-1,1),np.array(Y_train).reshape(-1,1))
>>>    xy_lst = [(X_train,Y_train),(X_validation,Y_validation),(X_test,Y_test)]
>>>    for i in range(len(xy_lst)):
>>>        X_part = xy_lst[i][0]
>>>        Y_part = xy_lst[i][1]
>>>        Y_pred = clf.predict(np.array(X_part).reshape(-1,1))
>>>        print(i)
>>>        print(clf_name,"-ACC",accuracy_score(Y_part,Y_pred))
>>>        print(clf_name,"-REC",recall_score(Y_part,Y_pred,average='macro'))
>>>        print(clf_name,"-F1",f1_score(Y_part,Y_pred,average='macro'))
>>>        print("="*40)
0
logistic -ACC 0.30498866213151926
logistic -REC 0.2516826246127851
logistic -F1 0.17905056087028304
========================================
1
logistic -ACC 0.3231292517006803
logistic -REC 0.243061797752809
logistic -F1 0.17549325025960538
========================================
2
logistic -ACC 0.3129251700680272
logistic -REC 0.2553696303696304
logistic -F1 0.1885718770848868
========================================
上一篇 下一篇

猜你喜欢

热点阅读