(卷积)神经网络 | caffe

2017-09-23  本文已影响20人  姚屹晨

1.Caffe:Convolutional Architecture for Fast Feature Embedding.

2.卷积神经网络的功能?

3.一个基本卷积网络的组成:

4.步长(stride)是什么?

5.步长变大,会怎么样?

6.same padding是什么?

7.池化的作用?

8.池化的方式?

9.非线性部分存在的意义?(sigmoid & 双曲正切函数)

10.在空间中的五种操作

11.每层神经网络的数学理解:

12.每层神经网络的物理理解:

13.神经网络的目的?

weight-filter {
     type: "xavier"//一种算法,防止初始化的Weight偏差太大
}

kernel_size //权重参数(Weight)的大小
test_iter //test_iter * batch_size(测试集的) = 测试集的大小
test_interval //训练时,每迭代test_interval,就进行一次测试(accurary & loss)
lr_mult //学习率,第一个是Weight,第二是bias
num_output //卷积核(filter)的数量
InnerProduct // 即为Fully_connected Layer(全连接层 / 内积层)
display: 100 ///每迭代100次显示一次
ReLU //Rectified(矫正的) Linear Units(激活函数)---sigmoid & 双曲正切函数
weight_decay //权重衰减(放在正则项regularization前面的一个系数)---防止过拟合
momentum //动量,梯度下降法中的一种常用加速技术
forward pass //前向传播---接收输入并计算输出
backward padd //反向传播---接收输出梯度并计算相关参数和输入梯度,并反向传播给前面的层
setup //初始化设置

15.隐含层和输出层的神经元都是拥有激活函数的功能神经元。

16.神经网络的学习过程?

17.什么叫进行了一轮学习(one epoch)

18.累积BP(Back Propagation)算法,在读取整个训练集D一遍后才对参数进行更新,参数更新频率低。

19.过拟合是啥?

20.无监督逐层训练(Unsupervised Layer-wise Training)

①存在的原因?

②为啥不能用?

③无监督逐层训练是什么?

④预训练和微调的作用?

21.权共享(Weight Sharing)

①是什么?

22.特征映射(Feature Map)是什么?

①每个特性映射是一个平面,由神经元阵列组成,多个这样的面就构成了一个卷积层。

②那么特性映射有什么用?

23.卷积神经网络的特殊性?

C:特征提取层
S:特征映射层

25.数据类型

①数据库Data

②内存Data

HDF5 Data(Hierarchical Data File)

Images Data

Windows(窗口) Data

上一篇下一篇

猜你喜欢

热点阅读