呆鸟的Python数据分析R语言与统计分析人工智能/模式识别/机器学习精华专题

《统计学习方法》-第一章(1)

2019-08-10  本文已影响11人  皮皮大

统计学习概述

统计学习的特点

统计学习是关于计算机基于数据构建概率统计模型并运用模型对数据进行预测和分析的一门学科。统计学习也称之为统计机器学习
统计学习的主要特点是:

统计学习对象

统计学习的对象是数据data。统计学中的数据通常是以变量或者变量组来表示数据。数据分为连续型离散型,书中主要讨论的是离散型数据。

统计学习目的

统计学习的目的是对数据进行预测和分析,特别是对新数据的预测和分析,通过构建概率模型来实现。

统计学习方法

统计学习的方法是基于数据构建概率统计模型来对数据进行预测和分析。统计学习分为:

实现统计学习的步骤:

  1. 给定一个有限的训练数据集合
  2. 构建学习模型的集合
  3. 确定模型选择的准则,即学习的策略
  4. 实现求解最优模型的算法
  5. 通过学习方法来选择最优解
  6. 利用学习的最优解模型来对数据进行预测和分析

统计学习基本分类

监督学习

监督学习 supervised learning:从标注数据中学习预测模型的机器学习问题。

输入实例x的特征向量记为:
x = (x^{(1)},x^{(2)},...x^{(i)},...x^{(n)})
其中x(i)表示x的第i个特征;xi表示多个输入变量中的第i个变量:
x_i = (x_i^{(1)},x_i^{(2)},...x_i^{(i)},...x_i^{(n)})

三大问题

监督学习利用训练数据学习一个模型,再用模型对测试样本进行预测。在这个过程通常是人工给出标注的训练数据集,所以称之为监督学习。监督学习分为学习和预测。

对于给定的输入xi,一个具体的模型可以产生一个输出f(xi);数据集中真实的输出是yi。如果两个相差很大,说明模型的预测能力很差。学习系统即算法需要不断地尝试,选择出最好的模型。

image.png

无监督学习

无监督学习是指从无标注数据中学习预测模型的机器学习问题。无监督学习的本质是学习数据中的统计规律和潜在结构。

image.png

强化学习

强化学习reinforcement learning 是指在智能系统在与环境的连续互动中学习最优行为的机器学习问题。强化学习的本质是学习最优的序贯决策。

image.png

强化学习的马尔可夫决策过程是状态、奖励、动作序列上的随机过程,包含5个要素:

半监督学习和主动学习

半监督学习semi-supervised learning 是指利用标注数据和未标注数据学习预测模型的机器学习问题。


主动学习active learning是机器不断地给出实例进行标注,然后利用标注的数据进行预测学习。

**半监督学习和主动学习更接近监督学习


按照模型分类

概率和非概率模型

在监督学习中,概率模型是生成型,非概率模型是判别模型

条件概率分布最大化可以得到函数,函数归一化后可以得到条件概率分布

线性和非线性模型

统计学习模型,尤其是非概率模型,可以分为概率模型linear model和非概率模型non-linear model

参数化和非参数化模型

参数模型假设模型参数的维度固定,模型可以是有限维度的完全刻画;非参数化模型假设模型的参数是不固定或者无穷大的。

按照算法分类

统计学习根据算法可以分为在线学习online learning和批量学习 batch learning

在线学习通常比批量学习更难,因为在线学习很难学到准确率更高的模型,因为每次模型更新中,可以利用的数据是有限的


统计三要素

统计学习方法都是由模型、策略和算法构成的,简单地表示为:方法 = 模型+策略+算法

模型

在监督学习的过程中,模型就是所要学习的条件概率分布或者决策函数。模型的假设空间(hypothesis space)包含所有可能的条件概率分布或者函数。
假设空间的模型一般有无穷多个。

  1. 假设空间用{\Gamma}表示,假设空间可以定义为决策函数的集合:{\Gamma}={f|Y=f(X)}
  1. 假设空间定义为条件概率的集合:{\Gamma}={P|P(Y|X)}

策略

监督学习是在假设空间{\Gamma}中选取迷行f作为决策函数,给定输入X,由f(X)给出相应的输出Y,这个输出的预测值f(X)和真实值之间可能存在误差,用一个损失函数loss function 或者代价函数cost function 来度量预测错误的程度。损失函数记为:L(Y,f(X))

统计学中常用的损失函数有:

  1. 0-1损失函数
    L(Y,f(X))= \begin{cases} 1,& \text Y\neq f(X)\\ 0,& \text{Y = f(X)} \end{cases}

  2. 平方损失函数
    L(Y,f(X))=(Y-f(X))^2

  3. 绝对损失函数
    L(Y,f(X))=|Y-f(X)|

  4. 对数损失函数或者似然损失函数
    L(Y,P(Y|X)) = -logP(Y|X)

损失函数值越小,模型的性能就越好

什么是期望风险

输入和输出是随机变量,遵循联合概率分布P(X,Y),损失函数的期望值为:**
\begin{align} R_{exp}(f) & = E_P[L(Y,f(X))]\\ & = \int_(X{\times}Y){L(y, f(x))P(x,y)}{\rm d}x{\rm d}y \end{align}

称之为风险函数risk function或者期望损失excepted loss

什么是经验风险

在给定的训练数据集:T={(x_1,y_1), (x_2,y_2),...(x_i,y_i),...,(x_N,y_N)}模型f(Y)关于训练集的平均损失函数称为经验风险empirical risk或者经验损失empirical loss,记作:$R_{emp}$R_{emp}(f)=\frac{1}\{N}\sum_{i=1}^NL(y_i,f(x_i))

期望风险Rexp(f)是模型关于联合分布的期望损失,经验风险Remp(f)是模型关于训练样本数据集的平均损失。

上一篇 下一篇

猜你喜欢

热点阅读