深度学习·神经网络·计算机视觉机器学习

激活函数(activation functions)二三事-性质

2018-03-20  本文已影响149人  BookThief

一. 引言

神经网络是由具有适应性的简单单元组成的广泛并行互连的网络,
它的组织能够模拟生物神经系统对真实世界物体所作出的交互反应

如今神经网络已经为很多人所熟知,很多很多复杂的网络结构出现在我们面前。在我们日常编写神经网络代码的过程中,激活函数似乎已经是一种很自然正常的操作。可是,激活函数的原理,激活函数的性质,为什么需要激活函数,有哪些常用的激活函数,如何选用?也需要我们更加深入的了解。

二. 神经元

神经网络中最基本的成分是神经元 (neuro且)模型,即上述定义中的"简单单元"在生物神经网络中,每个神经元与其他神经元相连,当它"兴奋"时,就会 向相连的神经元发送化学物质,从而改变这些神经元 内的电位;如果某神经元的电位超过了 一个"阔值" (threshold) , 那么它就会被激活,即 "兴奋 "起来,向其他神经元发送化学物质。之前说深度网络就是模拟这种生物神经网络的,那么深度学习里的激活函数就是模仿这种神经元的激活方式。

这是一个简单的神经元模型,它接收N个输入X1, X2, ... ,Xn。并为每个输入赋予一个权重W1, W2, ... ,Wnb是偏置参数(可以理解为为了更好的达到目标而做调整的参数)

到这里我们知道了神经元接受了多个输入后,必须要通过"激活函数"处理才会产生最终输出。

三. 理想的激活函数(阶跃函数)

理想中的激活函数是图所示 的阶跃函数,它将输入值映射为输出值 "0"或“1”,显然 "1" 对应于神经元兴奋 , "0" 对应于神经元抑制。这种情况是最符合生物特性的,但是阶跃函数具有不连续 、不光滑等不太好的性质,所以它无法被用于神经网络的结构。

既然理想的激活函数无法适用于我们的神经网络结构,那激活函数应该具有什么样的性质呢?

四. 激活函数的性质

五. 激活函数的作用(非线性)

能使得神经网络的每层输出结果变得非线性化

非线性化的作用
能使得神经网络的每层输出结果变得非线性化。

线性可分


线性不可分


六. 常用的激活函数

  1. Sigmoid
  1. TANH双曲正切

  1. ReLU

4.Leaky ReLU
个人第一次使用是在训练GAN的过程中。


参考
https://zhuanlan.zhihu.com/p/32610035

上一篇 下一篇

猜你喜欢

热点阅读