2020 经典卷积神经网 googleNet
2020-09-30 本文已影响0人
zidea
MachineLearninginMarketing
Inception-model_01.png
googleNet
甜点
- 池化层可以减少特征图尺寸,减少参数数量
- 卷积核个数增多可以提取更多结构特征,同时也会增加网络参数数量
- 池化层设计有助于平衡卷积核数量增加
其实 VGG 取得成绩证明了两件事,网络做更深效果更好,多个小卷积核可以代替一个大卷积核,接下来来看 googleNet 将误差降到了 6.7
- 提出一种 Inception 结构,这是 googleNet 的创新,这种结构能够保留输入信息中的更多信息。
- 去掉了 AlexNet 前两个全连接层,并采用了平均池化,googleNet 只有 500 万参数。之前在AlexNet 响应特征图和全连接层连接时候,我们是把特征图一个一个展平后进行拼接形成一个向量来和后面全连接层进行连接,这里可以思考一下,我们可不可把 256 特征图每一个图取其均值作为这个一个特征图表达,然后将 256 特征图每一个特征图均值进行拼接形成一个 256 维向量来和全连接进行连接,因为做分类问题,我没有必要考虑位置。而且 googleNet 还去掉了最后两层的全连接
- 在网络的中部引入辅助分类器,解决了训练过程中的梯度消失的问题
神经网络串联问题
在串联结构中,后面的卷积层只能处理前层的特征图,一旦前层因为某种原因丢失了信息,在后层是无法找回的。
Inception-model_01.png
googleNet 是通过对输入进行不同操作,也就是把串行操作变为并行操作,输入会分别进行不同操作后合并后进行下一层
- inception_v1.jpeg
-
分别在 googlenet_002.jpeg
-
v1 这样设计就是为了解决 googleNet 的性能问题
googlenet_01.png
-