数据科学家LSTM深度学习·神经网络·计算机视觉

按时间轴简述九大卷积神经网络

2017-03-26  本文已影响818人  不会停的蜗牛
timeline

1998, Yann LeCun 的 LeNet5

图像特征分布在整个图像上
在具有很少参数的多个位置上提取类似特征时,具有可学习的参数的卷积是个比较有效的方法
在没有应用GPU的时候,能够保存参数和计算就成了一个关键优势
LeNet5并没有把每个像素都作为大型多层神经网络的一个输入,因为图像是高度空间相关的,如果用了这种方法,就不能很好地利用相关性

LeNet5 的主要特征:

LeNet5

2010, Dan Claudiu Ciresan and Jurgen Schmidhuber 的 Dan Ciresan Net

是比较早的GPU神经网络之一,在NVIDIA GTX 280图形处理器上实现了9层神经网络的前向后向计算。


2012,Alex Krizhevsky 的 AlexNet

是LeNet的一个更深和更广的版本,可以用来学习更复杂的对象

AlexNet 的主要特征:

AlexNet

2013年12月,Yann LeCun的纽约大学实验室的 OverFeat

是AlexNet的衍生,提出了 learning bounding boxes


2015,牛津的 VGG

率先在每个卷积层中使用更小的 3×3 filters,并将它们组合成卷积序列
虽然小,但是多个3×3卷积序列可以模拟更大的接收场的效果
这个想法也在最近的Inception和ResNet网络中有所应用


2014,Min Lin, Qiang Chen, Shuicheng Yan 的 NiN

Network-in-network

2014,Google Christian Szegedy 的 GoogLeNet and Inception

Inception

2015年2月,Christian 团队的 Inception V2,2015年12月,Inception V3

Inception V3

2015,Kaiming He, Xiangyu Zhang, Shaoqing Ren, Jian Sun 的 ResNet

这个网络绕过了2层,可以被看作一个小的分类器,或者一个NiN
这也是第一次训练了大于100甚至1000层的网络
在每一层,通过使用更小output的1x1卷积来减少特征的数量,然后经过一个3x3 层,接着又是一个1x1卷积,这个方法可以保持少计算量,同时提供丰富的特征组合

ResNet

2016,François Chollet 的 Xception

这个网络和 ResNet and Inception V4 一样有效,而且用了更简单优雅的结构
它有36个卷积阶段,和ResNet-34相似,不过模型和代码和ResNet一样简单,并且比Inception V4更易理解
这个网络在 Torch7/Keras / TF 都已经可以应用了

Xception

原文:
Neural Network Architectures
https://culurciello.github.io/tech/2016/06/04/nets.html


推荐阅读 历史技术博文链接汇总
http://www.jianshu.com/p/28f02bb59fe5
也许可以找到你想要的

上一篇 下一篇

猜你喜欢

热点阅读