convolution kernel

2017-08-29  本文已影响0人  叨逼叨小马甲

卷积核被用于边缘检测,也称作filter。其中卷积核的一个属性是局部性,即它只关注局部特征,局部的程度取决于卷积核的大小。

在信号处理中,时域卷积对应频域相乘。此处,原图像与convolution kernel的卷积,就是对频域信息进行选择。比如,图像中的边缘和轮廓属于高频信息,图像中某区域强度的综合考量属于低配信息。

CNN中的convolution kernel:

cnn的独特之处:

1. 卷积核中德每个权值可以看成DNN中的w,且与DNN一样,多一个参数。

2. 一个卷积核在与input不同区域做卷积时,它的参数是固定不变的。就是对同一层layer中的神经元而言,所有神经元的w和b相同,只是所连接的节点在改变。因此在cnn中,这叫做shared weights and biases

3. 在cnn中,卷积核是高维的,比如输入是m*n*k,那么卷积核是d*d*k,即输入和卷积核的深度一致。

4. 在cnn中,不需要特意设计卷积核的权值,只需要初始化,再通过GD来优化。初始化格外重要。

5. 通过卷积核后,得到的是原图的某些特征(如边缘信息),所以在cnn中,convolution kernel卷积得到的layer称作feature map.

6. 一般cnn中两层之间会有多个卷积核,这样做是为了学习输入的不同特征值,得到对应的多个feature map.

卷积核后的大小问题:

多少个参数的问题:

总结:

上一篇下一篇

猜你喜欢

热点阅读