计算机视觉实战(十一)Scale Invariant Featu
平移不变性
图像尺度空间
在一定的范围内,无论物体是大还是小,人眼都可以分辨出来,然而计算机要有相同的能力却很难,所以要让机器能够对物体在不同尺度下有一个统一的认知,就需要考虑图像在不同的尺度下都存在的特点。
也就是说希望在图像分辨率高或者分辨率低的时候都能够将物体识别出来。
尺度空间的获取通常使用高斯模糊来实现:
image不同σ的高斯函数决定了对图像的平滑程度,越大的σ值对应的图像越模糊。
image针对每个分辨率我们都做6个高斯滤波,不同的分辨率组成的金字塔如下图所示:
多分辨率金字塔
image我们需要做两件事:
1.不同分辨率的金字塔。
2.相同分辨率下的6个高斯模糊。
;高斯差分金字塔(DOG)
利用相同分辨率大小下面的不同程度的模糊图片做差,得到突出特征:
image这样我们就知道了什么样的东西可以作为特征点了。做差之后两个极值可作为特征点。
imageDoG空间极值检测
为了寻找尺度空间的极值点,每个像素点要和其图像域(同一尺度空间)和尺度域(相邻的尺度空间)的所有相邻点进行比较,当其大于(或者小于)所有相邻点时,该点就是极值点。如下图所示,中间的检测点要和其所在图像的3×3邻域8个像素点,以及其相邻的上下两层的3×3领域18个像素点,共26个像素点进行比较。
image对于最上面或者最下面的那层是无法做极值检测的。
用上述所讲方法,我们可以得到一些离散的极值点。这些候选关键点是DOG空间的局部极值点,精确定位极值点的一种方法是,对尺度空间DoG函数进行曲线拟合,计算其极值点,从而实现关键点的精确定位。
我们使用泰勒级数对其进行拟合展开:
image对尺度空间DoG函数进行曲线拟合,我们可以得到下图所示公式:
image令其一阶导数等于0,求解出x再带入原方程,即可求解出真正的极值点。
我们之前是用高斯来做的模糊,所以我们需要消除边界响应。
消除边界响应
image特征点的主方向
image每个特征点可以得到三个信息(x,y,σ,θ),即位置、尺度和方向。具有多个方向的关键点可以被复制成多份,然后将方向值分别赋给复制后的特征点,一个特征点就产生了多个坐标、尺度相等,但是方向不同的特征点。
生成特征描述
在完成关键点的梯度计算后,使用直方图统计邻域内像素的梯度和方向。
image当图像旋转时,我们希望特征不变。
为了保证特征矢量的旋转不变性,要以特征点为中心,在附近邻域内将坐标轴旋转θ角度,即将坐标轴旋转为特征点的主方向。
image旋转之后的主方向为中心取8x8的窗口,求每个像素的梯度幅值和方向,箭头方向代表梯度方向,长度代表梯度幅值,然后利用高斯窗口对其进行加权运算,最后在每个4x4的小块上绘制8个方向的梯度直方图,计算每个梯度方向的累加值,即可形成一个种子点,即每个特征的由4个种子点组成,每个种子点有8个方向的向量信息。
image论文中建议对每个关键点使用4x4共16个种子点来描述,这样一个关键点就会产生128维的SIFT特征向量。
imageopencv SIFT函数
要求版本3.4.1以下
cv2.__version__ #3.4.1.15 pip install opencv-python==3.4.1.15 pip install opencv-contrib-python==3.4.1.15
import cv2
import numpy as np
img = cv2.imread('test_1.jpg')
gray = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY)
得到特征点
sift = cv2.xfeatures2d.SIFT_create()
kp = sift.detect(gray, None) #通常传进来一张灰度图,kp(KeyPoint)关键点
画关键点
img = cv2.drawKeypoints(gray, kp, img)
cv2.imshow('drawKeypoints', img)
cv2.waitKey(0)
cv2.destroyAllWindows()
image
计算特征
kp, des = sift.compute(gray, kp)
特征匹配
假设我们现在有两张图片,我们现在想比较一下这两张图片之间的差异,我们怎么来做呢?
Brute-Force蛮力匹配
我们先获取两张图像之间的特征,然后查看特征点之间的欧式距离:
import cv2
import numpy as np
import matplotlib.pyplot as plt
img1 = cv2.imread('box.png', 0)
img2 = cv2.imread('box_in_scene.png', 0)
def cv_show(name,img):
cv2.imshow(name, img)
cv2.waitKey(0)
cv2.destroyAllWindows()
cv_show('img1',img1)
cv_show('img2',img2)
sift = cv2.xfeatures2d.SIFT_create()
kp1, des1 = sift.detectAndCompute(img1, None)
kp2, des2 = sift.detectAndCompute(img2, None)
crossCheck表示两个特征点要互相匹,例如A中的第i个特征点与B中的第j个特征点最近的,并且B中的第j个特征点到A中的第i个特征点也是
NORM_L2: 归一化数组的(欧几里德距离),如果其他特征计算方法需要考虑不同的匹配计算方式
bf = cv2.BFMatcher(crossCheck=True)
这里我们做一对一的匹配
matches = bf.match(des1, des2)
matches = sorted(matches, key=lambda x: x.distance)
img3 = cv2.drawMatches(img1, kp1, img2, kp2, matches[:10], None,flags=2)
cv_show('img3',img3)
那我们能不能做一对多的匹配呢?其实也是可以的:
imageimport cv2
import numpy as np
import matplotlib.pyplot as plt
img1 = cv2.imread('box.png', 0)
img2 = cv2.imread('box_in_scene.png', 0)
def cv_show(name,img):
cv2.imshow(name, img)
cv2.waitKey(0)
cv2.destroyAllWindows()
# cv_show('img1',img1)
# cv_show('img2',img2)
sift = cv2.xfeatures2d.SIFT_create()
kp1, des1 = sift.detectAndCompute(img1, None)
kp2, des2 = sift.detectAndCompute(img2, None)
bf = cv2.BFMatcher()
matches = bf.knnMatch(des1, des2, k=2)
good = []
for m, n in matches:
if m.distance < 0.75 * n.distance:
good.append([m])
img3 = cv2.drawMatchesKnn(img1,kp1,img2,kp2,good,None,flags=2)
cv_show('img3',img3)
image
如果需要更快速完成操作,可以尝试使用cv2.FlannBasedMatcher
。
完整代码 后台回复 SIFT。
我的微信公众号名称:深度学习与先进智能决策
微信公众号ID:MultiAgent1024
公众号介绍:主要研究分享深度学习、机器博弈、强化学习等相关内容!期待您的关注,欢迎一起学习交流进步!