CNN Summaries

2017-12-04  本文已影响0人  安大FA飞
model author year structure
LeNet Google 1986 2 layers convolution
2 layers subsampling
2 layers full-connected
1 layer Gaussian connection
AlxNet Alex Krizhevsky 2012 5 layers conv
3 layers full-connected
GoogleLeNet Alex Krizhevsky 2014 many convolution
VGG 16 Google DeepMind 2015 13 layers convolution
3 layers full-connected
Deep Residual Learning 何凯明 2015 152 layers
SqueezeNet Iandola 2016 2 layers convolution
8 layers fire

LeNet

较早期的神经网络,用于识别数字,当年美国大多数银行就是用它来识别支票上面的手写数字的。
链接:http://blog.csdn.net/geekmanong/article/details/50605340

LeNet.png

AlexNet

2012 ILSVRC 大放异彩,神经网络的时代重启.
链接:https://www.cnblogs.com/alexanderkun/p/6918045.html

AlexNet.png

GoogLeNet

14年比赛冠军的model,这个model证明了一件事:用更多的卷积,更深的层次可以得到更好的结构。
链接:http://blog.csdn.net/shuzfan/article/details/50738394#googlenet-incepetion-v1

GoogleNet.png

VGG 16

VGG有很多个版本,也算是比较稳定和经典的model。它的特点也是连续conv多,计算量巨大
链接:http://blog.csdn.net/errors_in_life/article/details/65950699

VGG16.png

Deep Residual Learning

这个model是2015年底最新给出的,也是15年的ILSCRC比赛冠军。可以说是进一步将conv进行到底,其特殊之处在于设计了“bottleneck”形式的block(有跨越几层的直连)。最深的model采用的152层!
链接:http://blog.csdn.net/xbinworld/article/details/45619685

SqueezeNet

模型小巧,引入了fire层 (squeeze and expand).准确率和 AlexNet 差不多,但是模型小了50x.
链接:http://blog.csdn.net/shenxiaolu1984/article/details/51444525

SqueezeNet.png
上一篇下一篇

猜你喜欢

热点阅读