深度学习笔记—模型优化

2019-03-21  本文已影响0人  no_repeat

[问题]

深度模型中的优化问题部分

1.牛顿法

二阶方法 → 一阶的导数?

1)会受到目标函数的某些特征带来的挑战

2)每次训练迭代,导致参数的改变,需要进行重新计算

导致 → 只有参数很少的网络才能在实际中用牛顿法来训练

还有,当目标函数的表面非常凸,如有鞍点的情况 → 使用牛顿法会有问题

2.共轭梯度

在当前梯度方向下降到极小值时,必须重新最小化之前在梯度方向上的目标 → 会撤销之前线搜索方向上取得的进展

寻求一个和先前线搜索方向共轭的搜索方向

对线性共轭梯度算法的查缺补漏?

3.优化策略和元算法

试图解决训练模型深的问题 → 深的模型会带来多个函数或层的组合

答案为使用批标准化方法

1)恢复了零均值 + 单位方差的特性

2)保持着单位高斯

3)减少每次更新所带来的影响

4)使得模型的学习更容易

1)坐标下降

2)监督预训练:贪心监督预训练

3)延拓法

上一篇 下一篇

猜你喜欢

热点阅读