CBAM: Convolutional Block Attent

2019-12-13  本文已影响0人  逆风g

更多注意力机制相关文章,请看这篇论文总结RAM: Residual Attention Module for Single Image Super-Resolution

概述

  1. 为了提升CNNs(卷积神经网络)效果,一些研究者尝试从三个方面着手:depthwidthcardinality,各自典型代表:
  1. 作者尝试从另一个角度出发—attention,attention适用于很多计算机视觉任务,例如图片分类、语义分割、边缘检测、姿态估计等。Attention可分为两类:基于通道(channel)和基于空间(spatial),前者关注更重要的特征(每个通道都是一种特征),后者留意在哪个位置关注,即作者所说的learn ‘what’ and ‘where’
  2. 作者组合这两类attention,提出 Convolutional Block Attention Module(CBAM)。基于主干网络ResNet18、ResNet34、ResNet101、WideResNet18、ResNeXt50、ResNeXt101、MobileNet、VGG16,在数据集ImageNet-1K上测试图片分类,在数据集 MS COCOVOC 2007上测试物体检测。验证了CBAM不仅通用性强,而且在不明显增加参数量的情况下,能提升网络效果。

CBAM结构


在给定输入特征F的情况下,CBAM模块先学到1维的通道注意力图(Channel Attention map)—Mc,再学到2维的空间注意力图(Spatial Attention map)—Ms,这个attention过程可用如下公式表达:

其中,

实验

  1. Ablation studies
    数据集:ImageNet-1K
    Baseline:ResNet50
    在现有ResNet结构中,CBAM可以添加到每个block的输出特征之后:

    作者针对 Channel attentionSpatial attention以及二者如何组合做了各个实验:
  1. Image Classification on ImageNet-1K
  1. Object Detection
上一篇 下一篇

猜你喜欢

热点阅读