知识点

2018-12-31  本文已影响0人  灰化肥发黑会挥发

优化方法

  1. 梯度下降
  1. 随机梯度下降
  1. 小批量SGD的更新过程
    每次选择一批数据放到网络中。

梯度下降的改进:

带动量的SGD算法

动量的概念:例如纸团在峡谷中会很慢,来回反弹,但是如果换成铁球会很快,
公式


image.png

动量的迭代更新公式如下


image.png

添加了一个以往的更新方向,假设其上一次的方向和本次方向相同,则会在相同的方向上不断加速。

NAG算法

NAG算法把梯度计算放在对参数附加当前速度之后。


image.png

自适应的梯度更新方法:

AdaGrad

基本思想:

RMSProp

基本思想:解决AdaGrad后期的学习率较小,导致难以训练的问题。

AdaDelta

Adam

基于二阶梯度的牛顿法

上一篇 下一篇

猜你喜欢

热点阅读