机器学习事例机器学习Machine_Learning

scikit_learn学习笔记一——机器学习及Scikit l

2018-08-29  本文已影响104人  深思海数_willschang

机器学习 Scikit Learn

scikit learn website

Choosing the right estimator

# 数据分割 训练测试集
from sklearn.model_selection import train_test_split
# 数据处理 标准化
from sklearn.preprocessing import StandardScaler
# 分类模型性能评测报告
from sklearn.metrics import classification_report
# 特征转换
from sklearn.feature_extraction import DictVectorizer
# 回归模型评估
from sklearn.metrics import r2_score, mean_squared_error, mean_absolute_error 

机器学习

机器学习是设计和研究能够根据过去的经验来为未来做决策的软件,它是通过数据进行研究的程序。机器学习的基础是归纳(generalize),就是从已知案例数据中找出未知的规律。

一般我们将机器学习的任务分为

监督学习与非监督学习可以看作机器学习的两端。

机器学习三要素:1.模型;2.策略;3.算法

模型、参数、目标函数

而如何找到最优解呢,这就需要使用代价函数来求解了:

目标函数的求解
引出了梯度下降:能够找出cost function函数的最小值;
梯度下降原理:将函数比作一座山,我们站在某个山坡上,往四周看,从哪个方向向下走一小步,能够下降的最快;

当然解决问题的方法有很多,梯度下降只是其中一个,还有一种方法叫Normal Equation;

方法:

  1. 先确定向下一步的步伐大小,我们称为Learning rate
  2. 任意给定一个初始值
  3. 确定一个向下的方向,并向下走预先规定的步伐,并更新
  4. 当下降的高度小于某个定义的值,则停止下降

[机器学习算法地图(下图) 摘自"SIGAI"微信公众号]


机器学习算法地图.jpg

监督学习 分类——乳腺癌分类案例

监督学习 分类/回归

即根据已有经验知识对未知样本的目标/标记进行预测

据目标预测变量的类型不同,分为分类回归

流程顺序:

  1. 获取数据
  2. 抽取所需特征,形成特征向量(Feature Vectors)
  3. 特征向量+标签数据(Labels)构成模型所需数据格式
  4. 数据分割成 训练集,测试集,验证集
  5. 模型训练,评估验证等

分类

线性分类器(Linear Classifiers)

假设特征与分类结果存在某种线性关系

f(w, x, b) = w^{T} + b

二分类之逻辑回归(Logistic Regression)

也被称为对数几率回归

逻辑回归(Logistic Regression)是用于处理因变量为分类变量的回归问题,常见的是二分类或二项分布问题,也可以处理多分类问题,它实际上是属于一种分类方法。

g(z) = \frac{1}{1+e^{-z}} = g(f(w, x, b)) = \frac{1} {1+e^{-(w^{T}x+b)}}

  1. 读取数据,查看数据情况 pandas
# 引入所需包
import numpy as np
import pandas as pd
# 使用sklearn.model_selection里的train_test_split模块用于分割数据。得到 训练/测试数据
# http://scikit-learn.org/stable/modules/generated/sklearn.model_selection.train_test_split.html
from sklearn.model_selection import train_test_split


# 创建特征列表, 每列名称
column_names = ['Sample code number', 'Clump Thickness', 'Uniformity of Cell Size', 
                'Uniformity of Cell Shape', 'Marginal Adhesion', 'Single Epithelial Cell Size', 
                'Bare Nuclei', 'Bland Chromatin', 'Normal Nucleoli', 'Mitoses', 'Class']

# 使用pandas.read_csv函数读取指定数据
data = pd.read_csv('data/breast-cancer-wisconsin.csv', names = column_names)

# 将?替换为标准缺失值表示,缺失值处理
data = data.replace(to_replace='?', value=np.nan)

# 丢弃带有缺失值的数据
data = data.dropna(how='any')

# 输出data的数据量和维度。
print('数据维度为: {}'.format(data.shape))
image.png
  1. 查看数据具体内容情况


    image.png
  2. 将数据切分成 训练集测试集

# 随机采样25%的数据用于测试,剩下的75%用于构建训练集合
X_train, X_test, y_train, y_test = train_test_split(data[column_names[1:10]], data[column_names[10]], 
                                                    test_size=0.25, random_state=25)
# 查验训练样本的数量和类别分布
y_train.value_counts()
image.png
  1. 用逻辑回归进行二分类模型训练及预测并作出性能评测
# 引入 线性分类 进行预测
# 数据先做 标准化处理
from sklearn.preprocessing import StandardScaler
# 引入 逻辑回归 与 随机梯度分类器
from sklearn.linear_model import LogisticRegression 
from sklearn.linear_model.stochastic_gradient import SGDClassifier
# 从sklearn.metrics里导入classification_report模块。
from sklearn.metrics import classification_report

# 标准化数据,保证每个维度的特征数据方差为1,均值为0。使得预测结果不会被某些维度过大的特征值而主导。
ss = StandardScaler()
X_train = ss.fit_transform(X_train)
X_test = ss.transform(X_test)

# 实例化分类器
lr = LogisticRegression()
sgdc = SGDClassifier(max_iter=5, tol=None)

# 调用LogisticRegression中的fit函数/模块用来训练模型参数。
lr.fit(X_train, y_train)
# 使用训练好的模型lr对X_test进行预测,结果储存在变量lr_y_predict中。
lr_y_predict = lr.predict(X_test)

# 调用SGDClassifier中的fit函数/模块用来训练模型参数。
sgdc.fit(X_train, y_train)
# 使用训练好的模型sgdc对X_test进行预测,结果储存在变量sgdc_y_predict中。
sgdc_y_predict = sgdc.predict(X_test)

# 使用逻辑斯蒂回归模型自带的评分函数score获得模型在测试集上的准确性结果。
print('Accuracy of LR Classifier:', lr.score(X_test, y_test))
# 利用classification_report模块获得LogisticRegression其他三个指标的结果。
print(classification_report(y_test, lr_y_predict, target_names=['Benign', 'Malignant']))

# 使用随机梯度下降模型自带的评分函数score获得模型在测试集上的准确性结果。
print('Accuarcy of SGD Classifier:', sgdc.score(X_test, y_test))
# 利用classification_report模块获得SGDClassifier其他三个指标的结果。
print(classification_report(y_test, sgdc_y_predict, target_names=['Benign', 'Malignant']))
image.png
上一篇 下一篇

猜你喜欢

热点阅读