深度神经网络一览

2018-03-22  本文已影响0人  whytin

背景

AlexNet(ISVRC2012)

AlexNet有5个卷积层和3个全连接层


AlexNet结构 Sigmoid
Relu

Gradient Vanishing

Sigmoid函数在深度网络中常常会导致导数逐渐变为0,使得参数无法被更新,神经网络无法被优化。原因在于两点:(1) 在上图中容易看出,当x较大或较小时,导数接近0,而后向传递的数学依据是微积分求导的链式法则,当前层的导数需要之前各层导数的乘积,几个小数的相乘,结果会很接近0 (2) Sigmoid导数的最大值是0.25,这意味着导数在每一层至少会被压缩为原来的1/4,通过两层后被变为1/16,…,通过10层后为1/1048576。

Dropout

在前向传导过程中,以一定的概率P使某个神经元停止工作。在同一网络里模拟出更多的组合的子网络,再求模型平均,从而防止过拟合。


Dropout

Data Augmentation

通过数据增强,也可以防止过拟合,提高鲁棒性。

VGG16-19

GoogleNet(Inception)

ResNet-50、101、152

退化问题(随着模型深度增加,学习能力增强,性能却比浅的模型差。因为当模型变复杂时,SGD的优化变得更加困难,导致了模型达不到好的学习效果。)
*增加shortcut connection


Residual
这一想法源于图像处理中的残差向量编码,通过一个reformulation,将一个问题分解成多个尺度直接的残差问题,能够很好的起到优化训练的效果。

DenseNet

DenseNet Architecture Result

why?结果说明一切。。

上一篇 下一篇

猜你喜欢

热点阅读