人工智能

ORB-SLAM2代码笔记(十):ORBextractor

2019-07-27  本文已影响0人  liampayne_66d0

特征点提取器的构造函数

ORBextractor::ORBextractor(int _nfeatures,float _scaleFactor,int _nlevels,int _iniThFAST,int _minThFAST )

构造图像金字塔

void ORBextractor::ComputePyramid(cv::Mat image)
直接通过图像的缩放就可以达到目的。主要使用的函数就是如下所示的resize函数
resize(mvImagePyramid[level - 1], mvImagePyramid[level], sz, 0, 0, INTER_LINEAR);

特征点提取与分配

为了使接下来计算PnP时能够更加准确,需要保持的原则就是尽量使得特征点能够均匀分布在整个图像中,所以需要将图像分成更小的部分分别提取特征点,并用某种机制来分配。在本项目中,作者提供了两种分配方案分别是八叉树的方法和传统的方法。考虑到在室内场景中并不需要提供太多的特征点,而在1000个特征点以下时,传统的方法表现要由于建造八叉树的方法。所以在实际应用中,都是采用传统的方法,而不去花费大量收时间用于建造八叉树。

传统方法:void ORBextractor::ComputeKeyPointsOld(
std::vector<std::vector<KeyPoint> > &allKeypoints) //输出,所有图层上的所有特征点
传统方法的第一步就是计算需要将图像分割成多少个元包(cell),对于每个元包分别提取特征点。元包的计算方法为,根据需要提取的特征点数目,假设每个元包中需要提取5个特征点,以此来进行计算需要的cell数目。

接着对上面计算好的元包分别进行特征点的提取。

//调用opencv的库函数来检测FAST角点
                FAST(cellImage,             //cell中的图像
        cellKeyPoints[i][j],    //用于保存提取出来的特征点的vector容器
        iniThFAST,              //初步的FAST检测阈值
        true);                  //使能非极大值抑制

这里注意,由于FAST特征在计算角点时向内缩进了3个像素才开始计算,所以在使用FAST之前还需要对图像加一条宽度为3像素的边。然后就要用到之前初始化的两个阈值参数,首先使用阈值较大的参数作为FAST特征点检测的阈值,如果提取到的特征点数目足够多,那么直接计算下一个元包即可,否则就要使用较小的参数重新提取。在本项目中,特征点数目的阈值设定为3.

//如果当前cell中提取出来的特征点的个数小于3
                if(cellKeyPoints[i][j].size()<=3)
                {
                    //那么首先清空刚才提取出来的特征点
                    cellKeyPoints[i][j].clear();
                    //然后使用更小的参数阈值,进行重新提取
                    FAST(cellImage,             //cell中的图像
                         cellKeyPoints[i][j],   //输出变量,用于保存提取出来的特征点的vector
                         minThFAST,             //较小的那个FAST阈值
                         true);                 //使能非极大值抑制
                }

然后就涉及到了特征点的数目分配问题。由于图像中不可避免的存在纹理丰富和纹理较浅的区域,在纹理较丰富的区域,角点的数目可能提取很多,而在纹理不丰富的区域,角点的数目可能很少。而在分配各区域选取的特征点数目时,就要考虑前面提到的极可能均匀的问题。所以采用的方法是循环将特征点数目不足的元包中的剩余数目分配到其他所有元包中,知道最后取得足够数量的特征点。当然,如果最初提取的特征点数目就不足预期,那么直接全部选取即可。所以这种方法并不能保证最终得到的特征点数目一定能达到1000。
对于那些特征点数目特别多的元包,采用的是对各个角点的质量进行排序,选择最好的前n个特征点作为最终结果。

计算方向

为了使得提取的特征点具有旋转不变性,需要计算每个特征点的方向。方法是计算以特征点为中心以像素为权值的圆形区域上的重心,以中心和重心的连线作为该特征点的方向。具体计算过程在IC_Angle

static void computeOrientation(
    const Mat& image,               //特征点所在的图像(其实就是图像金字塔中每一层的图像)
    vector<KeyPoint>& keypoints,    //存储有特征点的vector
    const vector<int>& umax)        //以及每个特征点所在图像区块的每行的边界u_max组成的vector
{
    //遍历完所有的特征点
    for (vector<KeyPoint>::iterator keypoint = keypoints.begin(),
         keypointEnd = keypoints.end(); keypoint != keypointEnd; ++keypoint)
    {
        //计算这个特征点的方向,其实就是简单的函数调用
        keypoint->angle = IC_Angle(image,           //特征点所在的图层的图像
                                   keypoint->pt,    //特征点在这张图像中的坐标subl
                                   umax);           //以及图像区块的边界
    }//遍历完成所有的特征点
}

计算描述子

brief描述子由32*8位组成,其中每一位是来自于两个像素点灰度的直接比较,所以每比较出8bit结果,需要16个随机点,这也就是为什么pattern需要+=16的原因。

for (int i = 0; i < 32; ++i, pattern += 16)
    {
        
        int t0,     //参与比较的一个特征点的灰度值
            t1,     //参与比较的另一个特征点的灰度值       //TODO 检查一下这里灰度值为int型???
            val;    //描述子这个字节的比较结果
        
        t0 = GET_VALUE(0); t1 = GET_VALUE(1);
        val = t0 < t1;                          //描述子本字节的bit0
        t0 = GET_VALUE(2); t1 = GET_VALUE(3);
        val |= (t0 < t1) << 1;                  //描述子本字节的bit1
        t0 = GET_VALUE(4); t1 = GET_VALUE(5);
        val |= (t0 < t1) << 2;                  //描述子本字节的bit2
        t0 = GET_VALUE(6); t1 = GET_VALUE(7);
        val |= (t0 < t1) << 3;                  //描述子本字节的bit3
        t0 = GET_VALUE(8); t1 = GET_VALUE(9);
        val |= (t0 < t1) << 4;                  //描述子本字节的bit4
        t0 = GET_VALUE(10); t1 = GET_VALUE(11);
        val |= (t0 < t1) << 5;                  //描述子本字节的bit5
        t0 = GET_VALUE(12); t1 = GET_VALUE(13);
        val |= (t0 < t1) << 6;                  //描述子本字节的bit6
        t0 = GET_VALUE(14); t1 = GET_VALUE(15);
        val |= (t0 < t1) << 7;                  //描述子本字节的bit7

        //保存当前比较的出来的描述子的这个字节
        desc[i] = (uchar)val;
    }//通过对随机点像素灰度的比较,得出BRIEF描述子,一共是32*8=256位
上一篇下一篇

猜你喜欢

热点阅读