Matplotlib逻辑回归

Machine-Learning-Day-4-5-6

2019-01-30  本文已影响2人  西出玉门东望长安
逻辑回归

Day 4,5,6的任务是逻辑回归. 开始任务~


Screen Shot 2019-01-18 at 3.42.59 PM.png Screen Shot 2019-01-18 at 3.43.08 PM.png Screen Shot 2019-01-18 at 3.43.19 PM.png
Step1 Data Preprocessing

首先我们import numpy, pandas, matplotlib. 使用pandas来read数据集. 使用sklearn来分配训练集和测试集. test_size为四分之一. 注意, 这里有必要的话, 我们需要使用特征缩放.

code如下:

# Step1 Data Preprocessing
import numpy as np
import matplotlib.pyplot as plt
import pandas as pd

dataset = pd.read_csv('../datasets/Social_Network_Ads.csv')
X = dataset.iloc[:, [2, 3]].values
Y = dataset.iloc[:,4].values
print('X')
print(X)
print('Y')
print(Y)

from sklearn.model_selection import train_test_split
X_train, X_test, Y_train, Y_test = train_test_split(X, Y, test_size = 0.25, random_state = 0)

from sklearn.preprocessing import StandardScaler
sc = StandardScaler()
X_train = sc.fit_transform(X_train)
X_test = sc.fit_transform(X_test)
Step2 Logistic Regression Model

该项工作的库将会是一个线性模型库, 之所以被称为线性是因为逻辑回归是一个线性分类器, 这意味着我们在二维空间中, 我们两类用户(购买和不购买)将被一条直线分割. 然后导入逻辑回归类. 下一步我们将创建该类的对象, 它将作为我们训练集的分类器.

code如下:

from sklearn.linear_model import LogisticRegression
classifier = LogisticRegression()
classifier.fit(X_train, Y_train)
Step3 Prediction

预测结果, 可以使用逻辑回归的线性分类器来预测结果.
code如下:

y_pred = classifier.predict(X_test)
Step4 Evaluate the Prediction

我们预测了测试集. 现在我们将评估逻辑回归模型是否正确的学习和理解. 因此这个混淆矩阵将包含我们模型的正确和错误的预测.

code如下:

# Step4 Evaluate the Prediction
from sklearn.metrics import confusion_matrix
cm = confusion_matrix(Y_test, y_pred)
print('cm')
print(cm)
Step5 Visualization

可视化我们的结果.

code如下:

# Step5 Visualization
from matplotlib.colors import ListedColormap
X_set,Y_set=X_train,Y_train
X1,X2=np. meshgrid(np. arange(start=X_set[:,0].min()-1, stop=X_set[:, 0].max()+1, step=0.01),
                   np. arange(start=X_set[:,1].min()-1, stop=X_set[:,1].max()+1, step=0.01))
plt.contourf(X1, X2, classifier.predict(np.array([X1.ravel(),X2.ravel()]).T).reshape(X1.shape),
             alpha = 0.75, cmap = ListedColormap(('red', 'green')))
plt.xlim(X1.min(),X1.max())
plt.ylim(X2.min(),X2.max())
for i,j in enumerate(np. unique(Y_set)):
    plt.scatter(X_set[Y_set==j,0],X_set[Y_set==j,1],
                c = ListedColormap(('red', 'green'))(i), label=j)

plt. title(' LOGISTIC(Training set)')
plt. xlabel(' Age')
plt. ylabel(' Estimated Salary')
plt. legend()
plt. show()

X_set,Y_set=X_test,Y_test
X1,X2=np. meshgrid(np. arange(start=X_set[:,0].min()-1, stop=X_set[:, 0].max()+1, step=0.01),
                   np. arange(start=X_set[:,1].min()-1, stop=X_set[:,1].max()+1, step=0.01))

plt.contourf(X1, X2, classifier.predict(np.array([X1.ravel(),X2.ravel()]).T).reshape(X1.shape),
             alpha = 0.75, cmap = ListedColormap(('red', 'green')))
plt.xlim(X1.min(),X1.max())
plt.ylim(X2.min(),X2.max())
for i,j in enumerate(np. unique(Y_set)):
    plt.scatter(X_set[Y_set==j,0],X_set[Y_set==j,1],
                c = ListedColormap(('red', 'green'))(i), label=j)

plt. title(' LOGISTIC(Test set)')
plt. xlabel(' Age')
plt. ylabel(' Estimated Salary')
plt. legend()
plt. show()
Day_4_TestSet.png Day4_TrainSet.png
上一篇下一篇

猜你喜欢

热点阅读