Optimization algorithms优化算法

2018-10-12  本文已影响0人  Simple_isBeauty

1. Mini-batch gradient descent

将训练集拆分成小批量,比如一个小批样例只有1000个训练样例


image.png

小批量梯度下降,每次只对一个小批样例进行计算

image.png

2. Understanding mini-batch gradient descent

image.png image.png

3. Exponentially weighted averages

image.png

4. Understanding exponentially weighted averages

近似认为平均值数,截止到权重项影响值小于1/3时


image.png

5. Bias correction in exponentially weighted averages

6. Gradient descent with momentum

有一种算法叫做动量(Momentum) 或者叫动量梯度下降算法 它几乎总会比标准的梯度下降算法更快 一言以蔽之 算法的主要思想是 计算梯度的指数加权平均 然后使用这个梯度来更新权重

image.png image.png

7. RMSprop

有一个叫做RMSprop的算法 全称为均方根传递(Root Mean Square prop)它也可以加速梯度下降


image.png

8. Adam optimization

image.png image.png

9. Learning rate decay

image.png image.png

10. The problem of local optima

要点是

上一篇下一篇

猜你喜欢

热点阅读