ResNet

2020-07-28  本文已影响0人  一颗大葡萄树

普通深度学习结构的问题:当网络结构到达一定深度时,更深的网络会带来更高的训练误差。
误差升高的原因是:更深的网络梯度消失现象会更明显,所以在backpropgation时无法有效的将梯度更新到前面的网络层,靠前的网络层无法更新,导致训练和测试效果变差。
解决的问题:在增加网络深度时,可以有效的解决梯度消失的问题。

解决的方案是残差网络:
残差网络增加了一个恒等映射,把当前的输出直接传给下一层网络。全部是1:1的传输不增加任何额外参数。相当于跳过了本层计算,所以这个连接命名是skip connection。

如果遇到不等维度的传递一半用0来填充。
shortcut填充选项

由于这三个效果差距很小,但是第一个选项是计算复杂度最低的而且对于更深的网络更有利

Resnet特点:

上一篇 下一篇

猜你喜欢

热点阅读