深度学习调优

2018-01-25  本文已影响13人  陆号

1.神经网络数据预处理、正则化与损失函数

2.神经网络训练与注意点

Batch-Normalization.png

关于Batch Normalization:通常在全连接层后(此时输出值可能会很大),激励层前做
 激励层(实际经验)
1 不要用sigmoid!不要用sigmoid!不要用sigmoid!
2 首先试RELU,因为快,但要小心点
3 如果2失效,请用Leaky ReLU或者Maxout
4 某些情况下tanh倒是有不错的结果,但是很少
池化层 / Pooling layer
夹在连续的卷积层中间,压缩数据和参数的量,减小过拟合

卷积网络设计.png
canca.png
3.Neural Networks and Deep Learning中文翻译
优化.png
上一篇下一篇

猜你喜欢

热点阅读