机器学习

激活函数 relu、sigmoid、tanh,gelu

2019-06-03  本文已影响0人  夕一啊

如果不用激励函数,无论你神经网络有多少层,输出都是输入的线性组合,与没有隐藏层效果相当,这种情况就是最原始的感知机(Perceptron)了。

1. sigmoid

公式:y = 1/(1 + e^{-x})
导数:y(1 -y)
特点:输出 0 至 1之间

2. tanh

公式:y = (e^x - e^{-x})/(e^x + e^{-x})
导数:1 - y^2
特点:输出 -1 至1之间

3. relu

公式:y = max(0, x)
导数:x <0 时,dy/dx = 0; 当 x >= 0时,dy/dx = 1

4. 为什么引入Relu呢?

5. GELU

Gaussian Error Linear Unit 高斯误差线性单元,2016年论文提出的,在transformer中得到应用。


与ReLU的不同:GELU为其按照输入的magnitude(等级)为inputs加权值的;ReLUs是根据inputs的sign(正负)来gate(加门限)的。

论文实验证明GELU在多项计算机视觉, 自然语言处理,语音任务上效果优于ReLU, ELU。


image.png
上一篇下一篇

猜你喜欢

热点阅读