第七章 网络优化与正则化(7.3,7.4,7.5)

2020-11-07  本文已影响0人  我还是霸霸

7.3 参数初始化

7.3.1 基于固定方差的参数初始化
7.3.3 基于方差缩放初始化
7.3.2.1 Xavier初始化
7.3.2.2 He初始化
7.3.2.3 正交初始化

为避免梯度消失或梯度爆炸问题,希望误差项在反向传播的中具有范数保持性,即||\sigma^{(l-1)}||^2=||\sigma^{(l)}||^2=||(\mathrm{W^{(l)}})^T\sigma^{(l)}||^2,如果以均值为0,方差为\frac{1}{M}的高斯分布来初始化权重矩阵W^{(l)},当M趋于无穷时,范数保持性成立。
正交初始化实现过程可分为:
1)用均值为0、方差为1的高斯分布初始化一个矩阵
2)将这个矩阵用奇异值分解得到两个正交矩阵,并使用其中一个作为权重矩阵

7.4 数据预处理

神经网络中常使用的归一化方法

7.5 逐层归一化

7.5.1 批量归一化
7.5.2 层归一化
7.5.3 权重归一化
7.5.4 局部响应归一化
上一篇下一篇

猜你喜欢

热点阅读