《分布式机器学习》笔记1-机器学习基础

2019-07-30  本文已影响0人  菜鸡不得行

今天开始更新《分布式机器学习》的系列笔记,保证每周2-3更,大家一起学习啊~~


第一次笔记是机器学习基础,就简单的整理一下知识点。


机器学习的基本概念

机器学习关注的核心问题是如何用计算的方式模拟人类的学习行为:从历史经验中获取规律或者模型,并将其应用到新的类似场景中。

多维度梳理机器学习问题:

机器学习的基本流程

机器学习的流程可以用下图表示:


常用的损失函数

常用的机器学习模型

(感兴趣的可以自己找资料看,在这里只进行简单梳理,不做详细笔记)

常用的优化方法

典型的优化方法:

一阶算法 二阶算法
确定性算法 梯度下降法
投影次梯度下降
近端梯度下降
Frank-Wolfe算法
Nesterov加速算法
坐标下降法
对偶坐标上升法
牛顿法
拟牛顿法
随机算法 随机梯度下降法
随机坐标下降法
随机对偶坐标上升法
随机方差减小梯度法
随机拟牛顿法

还有一些针对神经网络优化的算法,例如,带冲量的随机梯度下降法、Nesterov加速方法、AdaGrad、RMSProp、AdaDelta、Adam、AMSGrad、等级优化算法以及基于熵的随机梯度下降法等。

机器学习理论

  1. L(\hat{g_T})-L(\hat{g_n}):优化误差。衡量的是优化算法迭代T轮后输出的模型与精确最小化经验风险的差别。是由于优化算法的局限性带来的,与选用的优化算法、数据量大小、迭代轮数以及函数空间有关。
  2. L(\hat{g_n})-L(g^{\ast}_ G):估计误差。衡量的是最小化经验风险误差的模型和最小化期望风险的模型所对应的的期望风险的差别。是由训练集的局限性带来的,与数据量的大小和函数空间的复杂程度有关。
  3. L(g^{\ast}_ G)-L(g^{\ast}):近似误差。衡量的是函数集合G的最优期望风险与全局最优期望风险的差别。与函数空间的表达力有关。
上一篇下一篇

猜你喜欢

热点阅读