CNN 卷积神经网络
2023-08-20 本文已影响0人
LET149
主要运用在 CV 即 计算机视觉 中
https://zhuanlan.zhihu.com/p/102119808
几个常用的CNN:
VGG
Resnet
: 残差网络
0. CNN 卷积神经网络一览图
Figure-1
Figure-2
Figure-3
Figure-4
Figure-5
1. 输入层 Input Layer
2. 卷积层 Coevolution Layer
截屏2023-03-21 10.06.01.png
截屏2023-03-21 10.29.34.png
(1): 输入数据的尺寸,分别是 行数x
列数x
通道数。
(2): 蓝色表示最原始的数据,在蓝色外面有一圈灰色的数字,而且都是 0,这是为了更符合卷积计算和特征提取而为原始数据添加的填充数据;填充数据基本都是 0,可以有圈数的差异,但是最常用的是 一圈。
(3): 卷积核的尺寸,分别是 行数x
列数x
通道数;卷积核的通道数要与输入数据的通道数保持一致,卷积核的大小是可以调节的,但 3x
3的卷积核比较常用;同一个 Filter 中不同通道的卷积核不要求保持一致;每个卷积核与对应通道对应位置的矩阵相乘后相加得到此通道对应位置的卷积结果(特征值),三个通道此位置上的特征值相加得到此卷积核在此位置上的特征值,因此每个卷积核的运算结果是一个二维矩阵(在此例中)。
(4)+(6): 偏置参数,每个卷积核进行卷积计算后要加上的值,这个值指定初始值后会进行 反向传播 从而进行更新。
(7): 一个卷积核提取的特征矩阵的尺寸,由 输入数据的尺寸、卷积核的尺寸 和 卷积核移动步长(卷积核每次移动的步数)。
(3)+(5)+(8): 每次卷积运算时,可以有多个卷积核(尺寸必须保持一致),每个卷积核计算后得到一个特征矩阵(如:28x28),那么若果有6个卷积核,则最后得到一个 28x
28x
6 的输出数据。
3. 激活函数 Activation Function
经典的激活函数包括:Sigmoid, Relu, Tanh 等
- Sigmoid:
- Relu:
- Tanh:
4. 池化层 Pooling Layer
池化(
Pooling
) 又称 下采样(DownSampling
)
经典的池化操作包括:Max Pooling 等
- Max Pooling:
5. 全连接层 Full Connection Layer
6. CNN 框架发展历史
http://www.taodudu.cc/news/show-3634039.html?action=onClick