激活函数作用
2019-11-05 本文已影响0人
chakopht
1、激活函数作用
解决不能用线性方程概括的问题
感知机原方程:(线性)
添加激活函数:(非线性化)
注意:激活函数必须可微分,因为反向传播的时候需要链式求导
2、激活函数概览:
sigmoid
![](https://img.haomeiwen.com/i14365285/9c3561a69be30283.png)
在多层神经网络中不推荐使用会导致梯度消失
3、ReLU
普通的ReLU负数端斜率是0,Leaky ReLU则是负数端有一个比较小的斜率,而PReLU则是在后向传播中学习到斜率。而Randomized Leaky ReLU则是使用一个均匀分布在训练的时候随机生成斜率,在测试的时候使用均值斜率来计算。
ReLU
![](https://img.haomeiwen.com/i14365285/30648fdfb51cc428.png)
LReLU
![](https://img.haomeiwen.com/i14365285/8d8bf4bad5dcd7d8.png)
![](https://img.haomeiwen.com/i14365285/18f75aa14ea5f875.png)
![](https://img.haomeiwen.com/i14365285/16af32cf06a6cf96.png)
![](https://img.haomeiwen.com/i14365285/27fa84f6552bbaa9.png)
![](https://img.haomeiwen.com/i14365285/ef2d53bfb6e7cafb.png)