机器学习

Feature Selective Anchor-Free Mo

2019-10-01  本文已影响0人  ce0b74704937

《Feature Selective Anchor-Free Module for Single-Shot Object Detection》发表于CVPR2019

文章认为现有的anchor的检测方式,为了解决多尺度的问题,容易引入人为的一些规则,这样会导致检测结果不是最优的,比如常用的fpn结构,按照待检测物体的大小规定某些层检测一定大小区域的物体,如下图所示,6060使用某一层feature预测,5050或者40*40大小的物体使用另一层feature来预测。

1.png

为了解决这种问题,文章提出了一种网络自动选择featuremap来预测不同的物体来进行物体的检测,如下示意图所示。


2.png

一、网络结构

网络结构如下图所示,下图显示的是采用retinanet的结构加上FSAF模块,也就是本文提出的anchor free预测物体的模块,来进行物体的检测。如图中的虚线框中的虚线块所示,在fpn结构输出的几层不同尺寸的featuremap后,经过K个3\times 3的卷积后在经过一个sigmoid层即得到分类的结果(这里的结果是指每个像素是那一类的结果)。同样的,使用4个3\times 3的卷积在使用一层relu层即得到物体的位置结果(这里是指每个像素代表的框的位置)。下图其实还画出来了基于anchor的预测方式,表明此提出的方法可以很方便的将anchor预测方法和anchor-free的方法联合使用。

3.png

二、gt

与以前anchor的方式很不相同的是上面所说的每个像素代表一类和每个像素代表一个框的位置,要理解这一点就必须知道groundtruth是怎么生成的。这部分其实和17年的一篇做ocr的文章EAST很像,这里先定义几个概念。
投影框,有效框和忽略框
我们知道对于一个物体来说,标注有类别信息,比如属于k类,还有位置信息比如使用矩形框表示b=[x,y,w,h],其中(x, y)表示矩形框的中心点,(w, h)分别表示矩形框的宽和高。
投影框指的是因为fpn不同层的输出feature大小不一样,对于第P_l层feature来说,投影框用b^l_p=[x^l_p, y^l_p, w^l_p, h^l_p]表示,它与原始标注框的关系为b^l_p=b/2^l
有效框定义为b^l_e=[x^l_e, y^l_e, w^l_e, h^l_e],有效框是相对于投影框来定义的,因为训练时,不同层的gt已经不是原始的标注框了,而是对应的投影框。x^l_e = x^l_p, y^l_e = y^l_p, w^l_e = \epsilon_e w^l_p, h^l_e = \epsilon_e h^l_p,其中\epsilon_e=0.2
忽略框定义为b^l_i = [x^l_i, y^l_i, w^l_i, h^l_i],其中忽略框也是相对于投影框来定义的, x^l_i = x^l_p, y^l_i = y^l_p, w^l_i = \epsilon_i w^l_p, h^l_i = \epsilon_i h^l_p,这里\epsilon_i=0.5

下面来看看真实标签的定义,如下图所示,对于car这个物体,需要两个标签,一个是类别标签,一个是距离标签。


4.png
2.1分类的标签

分类标签的真值有K个通道,每个通道代表一个类,这里那第k类的待测物体来说,它的类别标签来自于三个方向,第一个是有效框,有效框b^l_e内的像素全是正样本,如上图的白色区域。第二是忽略框内有效框外(b^l_i-b^l_e),这部分是不参与计算的,如图中的灰色部分。第三,相邻feature层的忽略框(b^(l-1)_i, b^(l+1)_i)也是本feature层需要忽略的。这里还需要注意的一点是,如果两个待测区域重叠,重叠部分优先选小的。剩余的区域为负样本。

这部分的训练采用的是focalloss,参数和原文一样。详情参考Focal Loss for Dense Object Detection论文详解

2.2 定位标签

定位标签有4个通道,这四个通道的值是像素到框的距离的偏移值。而且这里的有效像素是上面有效框里的像素。例如有个像素在图像中的位置为(i, j),且该像素在有效框内,在该位置上的四个通道值表示为,d^l_{i,j}=[d^l_{t_{i,j}}, d^l_{l_{i,j}}, d^l_{b_{i,j}}, d^l_{r_{i,j}}],其中d^l_{t_{i,j}}, d^l_{l_{i,j}}, d^l_{b_{i,j}}, d^l_{r_{i,j}}分别表示为点(i, j)到投影框b^l_p上,左,下,右边的距离。4个通道的真值为真值,所以值为d^l_{i,j}/S,这里S=4

这部分的训练采用IoUloss。

三、推断

知道训练时标签的计算后,来看看推断怎么做的。
对于位置为(i, j)的像素,预测出的位置偏移值[\hat{o_{t_{i,j}}}, \hat{o_{l_{i,j}}}, \hat{o_{b_{i,j}}}, \hat{o_{r_{i,j}}}],计算出的预测为[S\hat{o_{t_{i,j}}}, S\hat{o_{l_{i,j}}}, S\hat{o_{b_{i,j}}}, S\hat{o_{r_{i,j}}}],那么预测投影框的左上角点和右下角点为(i-S\hat{o_{t_{i,j}}}, j-S\hat{o_{l_{i,j}}})(i+S\hat{o_{b_{i,j}}}, j+S\hat{o_{r_{i,j}}}),最后乘以相应的倍数2^l得到预测框。
对于置信度为所有通道中位置为(i, j)的最大值。

四、Online Feature Selection

上面提到的本文提出了一种方法不用人为的定义哪些feature检测哪些物体。对于待测物体I来说,我们定义在feature P_l分类loss和定位loss为L^I_{FL}(l)L^I_{IoU}(l),它们是每个像素的平均值。

L^I_{FL}(l)=\frac{1}{N(b^l_e)}\sum_{i,j\in b^l_e}FL(l,i,j)L^I_{IoU}(l)=\frac{1}{N(b^l_e)}\sum_{i,j\in b^l_e}IoU(l,i,j)N(b^l_e)是为在有效框b^l_e内像素的总数。FL(l,i,j)IoU(l,i,j)为像素(i,j)在feature P_l上的focal loss和IoU loss。
下图所示,展示来如何选feature,它是通过选择最小的loss来选的,有点像ohem的感觉,公式表示为
l^* = argmin_l L^I_{FL}(l)+L^I_{IoU}(l)

5.png

欢迎加入Object Detection交流,群聊号码:910457072

上一篇下一篇

猜你喜欢

热点阅读