人工智能

Tensorflow基础6-关于激活函数的一些理解

2017-04-20  本文已影响120人  南风无影

传统的, 经典的激活函数:
softmax
sigmoid
tanh
ReLU -- 出奇的简单
softplus

QQ截图20170420174845.jpg

记得周大神说过,激活函数的作用是:让某一部分的神经元先激活出来,然后传到后面层的神经元
比如说:一个猫的研究,一个车的轮胎
如果A层学习提取到这个特征,那么就会把这个特征传给下一层B层

layer1 ----传过来的值---激活函数 -----layer2

2.jpg

激活函数大全
神经网络-ReLU,cross-entropy-and-softmax
为什么使用 ReLU
ReLU

上一篇下一篇

猜你喜欢

热点阅读