花书第五章笔记

2019-03-06  本文已影响0人  CrazyWolf_081c

[TOC]

第五章 机器学习基础

机器学习基础 掌握机器学习的基本知识和基础原理

5.1 学习算法

5.1.1 任务T

常见的机器学习任务列举如下:

5.1.2 性能度量P

5.1.3 经验E

机器学习算法可以大致分类为无监督(unsupervised)算法和监督(supervised)算法。

p(x)=\prod_{i=1}^{n}p(x_i\mid x_1,\cdots,x_{i-1})

p(y \mid x)=\frac {p(x,y)}{\sum_{{y}'}p(x \mid {y}')}

\hat{y}=\boldsymbol{w}^{T} \boldsymbol{x}

\mathrm{MSE}_{\mathrm{test}}=\frac{1}{m}\sum_{i}(\hat{\boldsymbol{y}}^{\mathrm{test}}-\boldsymbol{y}^{\mathrm{test}})_i ^2

5.2 容量、过拟合和欠拟合

决定机器学习算法效果是否好的因素:

  1. 降低训练误差
  2. 缩小训练误差和测试误差的差距。

5.2.1 没有免费午餐定理

5.2.2 正则化

5.3 超参数和验证集

5.3.1 交叉验证

5.4 估计、偏差和方差

5.4.1 点估计

\hat{\theta}_m=g(x^{(1)},\cdots,x^{(m)})

5.4.2 偏差

\mathrm{bias}(\hat{\theta}_m)=\mathbb{E}(\hat{\theta}_m)-\theta

5.4.3 方差和标准差

5.4.4 权衡偏差和方差以最小化均方误差

\mathrm{MSE}=\mathbb{E}[(\hat{\theta}_m-\theta)^2]=\mathrm{Bias}(\hat{\theta}_m)^2+\mathrm{Var}(\hat{\theta}_m)

5.4.5 一致性

\mathrm{p}\lim _{m \rightarrow \infty} \hat{\theta}_m = \theta

5.5 最大似然估计

\theta_{\mathrm{ML}}=\arg \max_{\theta}\sum _{i=1}^{m}\log p_{model}(x^{(i)};\theta)

5.5.1 条件对数似然和均方误差

\theta_{\mathrm{ML}}=\arg \max_{\theta}P(Y\mid X;\theta)=\arg \max_{\theta}\sum _{i=1}^{m}\log P(y^{(i)}\mid x^{(i)};\theta)

5.6 贝叶斯统计

5.6.1 最大后验(MAP) 估计

\theta_{\mathrm{MAP}}=\arg \max_{\theta}p(\theta\mid x)=\arg \max _{\theta}\log p(x\mid \theta)+\log p(\theta)

5.7 监督学习算法

5.7.1 概率监督学习

p(y\mid x;\theta)=\mathcal {N}(y;\theta^{T}x,I)

p(y=1\mid x;\theta)=\sigma(\theta^{T}x)

5.7.2 支持向量机

w^{T}x+b=b+\sum _{i=1}^{m}\alpha_ix^Tx^{(i)}

5.7.3 其他简单的监督学习算法

5.8 无监督学习算法

5.8.1 主成分分析

5.8.2 k-均值聚类

5.9 随机梯度下降

5.10 构建机器学习算法

5.11 促使深度学习发展的挑战

5.11.1 维数灾难

5.11.2 局部不变性和平滑正则化

5.11.3 流形学习

上一篇 下一篇

猜你喜欢

热点阅读