CNN 卷积神经网络

2023-08-20  本文已影响0人  LET149

主要运用在 CV计算机视觉

https://zhuanlan.zhihu.com/p/102119808

几个常用的CNN

    1. VGG
    1. Resnet : 残差网络

0. CNN 卷积神经网络一览图

Figure-1
Figure-2
Figure-3
Figure-4
Figure-5

1. 输入层 Input Layer

2. 卷积层 Coevolution Layer

截屏2023-03-21 10.06.01.png
截屏2023-03-21 10.29.34.png
(1): 输入数据的尺寸,分别是 行数 x 列数 x 通道数
(2): 蓝色表示最原始的数据,在蓝色外面有一圈灰色的数字,而且都是 0,这是为了更符合卷积计算和特征提取而为原始数据添加的填充数据;填充数据基本都是 0,可以有圈数的差异,但是最常用的是 一圈
(3): 卷积核的尺寸,分别是 行数 x 列数 x 通道数;卷积核的通道数要与输入数据的通道数保持一致,卷积核的大小是可以调节的,但 3 x 3的卷积核比较常用;同一个 Filter 中不同通道的卷积核不要求保持一致;每个卷积核与对应通道对应位置的矩阵相乘后相加得到此通道对应位置的卷积结果(特征值),三个通道此位置上的特征值相加得到此卷积核在此位置上的特征值,因此每个卷积核的运算结果是一个二维矩阵(在此例中)。
(4)+(6): 偏置参数,每个卷积核进行卷积计算后要加上的值,这个值指定初始值后会进行 反向传播 从而进行更新。
(7): 一个卷积核提取的特征矩阵的尺寸,由 输入数据的尺寸卷积核的尺寸卷积核移动步长(卷积核每次移动的步数)
(3)+(5)+(8): 每次卷积运算时,可以有多个卷积核(尺寸必须保持一致),每个卷积核计算后得到一个特征矩阵(如:28x28),那么若果有6个卷积核,则最后得到一个 28 x 28 x 6 的输出数据。

3. 激活函数 Activation Function

经典的激活函数包括:Sigmoid, Relu, Tanh

  • Sigmoid:
  • Relu:
  • Tanh:

4. 池化层 Pooling Layer

池化(Pooling) 又称 下采样(DownSampling)

经典的池化操作包括:Max Pooling

  • Max Pooling:

5. 全连接层 Full Connection Layer

6. CNN 框架发展历史

http://www.taodudu.cc/news/show-3634039.html?action=onClick

11. CNNPython 实现

上一篇下一篇

猜你喜欢

热点阅读