ml p5-p7:learning rate,Adagrad,S

2019-01-12  本文已影响0人  叫兽吃橙子

概览

p5:learning rate,Adagrad,Stochastic Gradient Descent ,Feature Scaling
p6:使用游戏模拟做梯度下降的感觉,局部最低点和全局最低点
p7:使用游戏来模拟为什么loss有时会不降反增。

疑问

笔记

B站19年李宏毅 P5

1.Gradient Descent


Gradient Descent
Gradient Descent

2.Learning Rate

3.调整 learning rate

4.Adagrad

5.Adagrad简化写法

6.Contradiction :矛盾


Contradiction

7.Intuitive Reason:直觉上的原因

7.更正常的解释——一个参数的时候

8.更正常的解释——多个参数的时候


Comparison between different parameters

9.更正常的解释——二次微分

10.更正常的解释——多个参数的时候

11.adagred 使用一次微分的值去估计二次微分的值

12.Stochastic Gradient Descent :随机梯度下降

Stochastic Gradient Descent

13.Feature Scaling :特征缩放

14.为什么要Feature Scaling

15.怎么做 Feature Scaling

16.梯度下降的方法的理论


Formal Derivation :形式倒数
Taylor Series
Multivariable Taylor Series :多变量泰勒级数
Back to Formal Derivation

17.More Limitation of Gradient Descent :梯度下降法的限制

More Limitation of Gradient Descent
上一篇 下一篇

猜你喜欢

热点阅读