深度学习

Normalization综述

2018-11-08  本文已影响1人  只为此心无垠

一、目录

二、什么是Internal Covariate Shift

covariate shift现象的解释

三、 Normalization的种类

BN、WN、LN分别是Batch Normalization、Weight Normalization和Layer Normalization,中文翻译为批标准化,权重标准化,层标准化。

四、BatchNorm

从四个角度来理解:

五、Layer Normalization

batch是“竖”着来的,各个维度做归一化,所以与batch size有关系。
layer是“横”着来的,对一个样本,不同的神经元neuron间做归一化。

显示了同一层的神经元的情况。假设这个mini-batch一共有N个样本,则Batch Normalization是对每一个维度进行归一。而Layer Normalization对于单个的样本就可以处理。

image

BN和LN都可以比较好的抑制梯度消失和梯度爆炸的情况。BN不适合 RNN,而LN刚好适合

层规范化技术 Layer Normalization

上一篇 下一篇

猜你喜欢

热点阅读