07.18 深度学习常见函数(不定期更新)
2017-07-18 本文已影响4人
archur
softmax:
![](https://img.haomeiwen.com/i707026/b9d87df0de378b1c.png)
tanh:
![](https://img.haomeiwen.com/i707026/6f1b31018c8f413a.png)
ReLu
![](https://img.haomeiwen.com/i707026/a148b13224527ff0.png)
sigmoid:
![](https://img.haomeiwen.com/i707026/7a1e65250ba149ef.png)
maxout?
![](https://img.haomeiwen.com/i707026/76341fe6508fb029.png)
对于CNN来说,并不是所有上下层神经元都能直接相连,而是*通过“卷积核”作为中介
输出值和真实值差距比较大,对误差进行反向传播,更新权值,重新计算输出
softmax:
tanh:
ReLu
sigmoid:
maxout?
对于CNN来说,并不是所有上下层神经元都能直接相连,而是*通过“卷积核”作为中介
输出值和真实值差距比较大,对误差进行反向传播,更新权值,重新计算输出