深度卷积神经网络

2019-03-07  本文已影响0人  是你亮哥哥呀

1. 卷积操作的本质特性及其作用

  • 在传统的神经网络中,例如全连接网络,任意的一对输入和输出神经元都产生交互,形成稠密的连接结构。
  • 而在卷积神经网络中,卷积核尺寸远远小于输入的维度,这样每个输出神经元仅与前一层特定区域(卷积核核大小)的神经元存在连接权重(产生交互),我们称这种特性为稀疏交互。
  • 假设相邻两层分别有m个输入和n个输出,全连接网络中的全职参数矩阵将包含mn个参数,对于稀疏的卷积神经网络,如果限定输出与前一层的神经元的连接数为k(卷积核尺寸为k),那么该层的参数总量为kn。实际运用中,一般k值远小于m就可以取得较为可观的效果;而此时优化过程的时间复杂度将会减少几个数量级,过拟合的情况也得到了较好的改善。
  • 稀疏交互的物理意义是,通常图像、文本、语音等现实世界中的数据都具有局部的特征结构,我们可以先学习局部的特征,再将局部的特征组合起来形成更复杂和抽象的特征。
  • 参数共享是指在同一个模型的不同模块中使用相同的参数,他是卷积运算的固有属性。全连接网络中,计算每层的输出时,权值参数矩阵中的每个元素之作用于某个输入元素一次;而在卷积神经网络中,卷积核中的每一个元素将作用与每一次局部输入的特定位置上。根据参数共享的思想,我们只需要学习一组参数集合,而不需要针对每个位置的每个参数都进行优化。
  • 参数共享的物理意义是使得卷积层具有平移不变性。加入图像中有一只猫,那么无论它出现在图像的中的任何位置,我们都应该将他识别为猫,也就是说神经网络的输出对于平移变换来说应当是不变的。

2. 常用的池化操作有哪些?池化的作用是什么?

  • 常用的池化操作主要针对非重叠区域,包括均值池化(mean pooling)和最大值池化(max pooling)等。其中均值池化通过对邻域内特征数值求平均来实现,能够抑制由于邻域大小受限造成估计值方差增大的现象,特别是对背景的保留效果更好。最大池化则通过取邻域内特征的最大值来实现,能够抑制网络参数误差造成均值偏移现象,特点是更好提取纹理信息。
  • 池化操作的本质是降采样。
  • 此外,特殊的池化方式还包括相邻重叠区域的池化以及空间金字塔池化。
  • 相邻重叠区域的池化,顾名思义,是采用比窗口宽度更小的步长,使得窗口在每次滑动时存在重叠区域。
  • 空间金字塔池化主要考虑了多尺度信息的描述,例如同时计算11,22,4*4的矩阵的池化并将结果拼接在一起作为下一网络的输入。
  • 池化操作除了能显著降低参数量外,还能保持对平移、伸缩、旋转操作的不变性。
上一篇 下一篇

猜你喜欢

热点阅读