人工智能

梯度下降

2019-01-10  本文已影响4人  geekAppke
每次求梯度,寻找一个方向
底部斜率接近为0

a 不能太小,效率低步子太小;太大容易扯着

梯度的方向,theta前进的方向;

最优化一个目标函数

并不是所有函数都有唯一的极值点

目标:使\sum_{i=1}^{m}({y^{(i)}} - {\hat{y}^{(i)}})^{2}尽可能小

梯度下降法总结

批量梯度下降法Batch Gradient Descent:稳定、方向一定是损失函数下降最快的方向!
随机梯度下降法Stochastic Gradient Descent:计算快、每一次计算方向是不确定的;甚至是向反方向移动。
小批量梯度下降法Mini-Batch Gradient Descent:综合2者优缺点,不那么极端

去2种方法,不那么极端,将2者结合在一起
多引入1个超参数

梯度下降法

随机梯度下降法

不确定世界中,不确定的问题,本身就可能没有一个固定的最优解 —— 随机有其优势

上一篇下一篇

猜你喜欢

热点阅读