深度学习

常用激活函数比较

2018-11-22  本文已影响36人  Thinkando

本文转自https://www.jianshu.com/p/22d9720dbf1a,有些没看懂,先记下来,以及增加了一些注解

本文结构:

  1. 什么是激活函数
  2. 为什么要用
  3. 都有什么
  4. sigmoid ,ReLU, softmax 的比较
  5. 如何选择

1 什么是激活函数

2. 为什么要用

3. 都有什么

3.1 sigmoid函数

下面解释为何会出现梯度消失:

3.2 Tanh函数

image.png
image.png

3.2 ReLU

3.4 softmax函数

4. sigmoid ,ReLU, softmax 的比较

Sigmoid 和 ReLU 比较:

Sigmoid 和 Softmax 区别:

5. 如何选择

上一篇 下一篇

猜你喜欢

热点阅读