二、补充知识

主要是Opencv中的findHomography的参数method中的ransacReprojThreshold含义,还有就是detectAndCompute返回值中的kps参数包含内容。

1. findHomography函数(Cpp版)

计算多个二维点对之间的最优单映射变换矩阵 H(3行x3列) ,使用最小均方误差或者RANSAC方法

函数功能:找到两个平面之间的转换矩阵。

 Mat cv::findHomography	(	
         InputArray 	srcPoints,
         InputArray 	dstPoints,
         int 	method = 0,
         double 	ransacReprojThreshold = 3,
         OutputArray 	mask = noArray(),
         const int 	maxIters = 2000,
         const double 	confidence = 0.995 

参数详解:

srcPoints 源平面中点的坐标矩阵,可以是CV_32FC2类型,也可以是vector类型

dstPoints 目标平面中点的坐标矩阵,可以是CV_32FC2类型,也可以是vector类型

method 计算单应矩阵所使用的方法。不同的方法对应不同的参数,具体如下:

0 - 利用所有点的常规方法

RANSAC - RANSAC-基于RANSAC的鲁棒算法

LMEDS - 最小中值鲁棒算法

RHO - PROSAC-基于PROSAC的鲁棒算法

ransacReprojThreshold 将点对视为内点的最大允许重投影错误阈值(仅用于RANSAC和RHO方法)。如果 dstPoints i convertPointsHomogeneous (HsrcPointsi)> ransacReprojThreshold \| \text { dstPoints }_{i}-\text { convertPointsHomogeneous }\left(H * \operatorname{srcPoints}_{i}\right) \|>\text { ransacReprojThreshold }

  • angle:角度,表示关键点的方向,为了保证方向不变形,SIFT算法通过对关键点周围邻域进行梯度运算,求得该点方向。-1为初值。
  • class_id:当要对图片进行分类时,我们可以用class_id对每个特征点进行区分,未设定时为-1,需要靠自己设定
  • octave:代表是从金字塔哪一层提取的得到的数据。
  • pt:关键点点的坐标
  • response:响应程度,代表该点强壮大小,更确切的说,是该点角点的程度。
  • size:该点直径的大小
  • 3. match与KnnMatch返回值解释

    二者的返回值都是DMatch的数据结构。

    match:

    bf = cv.BFMatcher_create()
    matches = bf.match(des1, des2)
    for matche in matches:
        print(matche)
    
    <DMatch 0x7fcf509b90b0>
    <DMatch 0x7fcf509b90d0>
    <DMatch 0x7fcf509b90f0>
    <DMatch 0x7fcf509b9110>
    

    主要含有三个非常重要的数据:queryIdx,trainIdx,distance

  • queryIdx:测试图像的特征点描述符的下标(第几个特征点描述符),同时也是描述符对应特征点的下标。
  • trainIdx:样本图像的特征点描述符下标,同时也是描述符对应特征点的下标。
  • distance:代表这对匹配的特征点描述符的欧式距离,数值越小也就说明两个特征点越相似。
  • Match匹配是“最佳”匹配,所以返回值list中的元素类型都是单个Dmatch,而 KnnMatch在设定参数 k = 2 后,就会对同一点进行最佳匹配和次佳匹配,所以返回值list中的元素类型都是一对Dmatch,也即[Dmatch, Dmatch]

    1. Stitcher.py

    主要用于定义Stitcher类,封装了拼接两幅视角不同的图像的基本流程和方法。

    import numpy as np
    import cv2
    # 自定义匹配类型
    class Stitcher:
        # 拼接函数, 0.75 是 OpenCV 官方给出的数据,reprojThresh用于滤除匹配不当的特征点对
        # showMatches 用于判别是否需要显示处理后的图像
        def stitch(self, images, ratio=0.75, reprojThresh=4.0,showMatches=False):
            # 获取输入图片
            (imageB, imageA) = images
            # 检测A、B图片的SIFT关键特征点,并计算特征描述子
            (kpsA, featuresA) = self.detectAndDescribe(imageA)
            (kpsB, featuresB) = self.detectAndDescribe(imageB)
            # 匹配两张图片的所有特征点,返回匹配结果
            M = self.matchKeypoints(kpsA, kpsB, featuresA, featuresB, ratio, reprojThresh)
            # 如果返回结果为空,没有匹配成功的特征点,退出算法
            if M is None:
                return None
            # 否则,提取匹配结果
            # H是3x3视角变换矩阵      
            (matches, H, status) = M
            # 将图片A进行视角变换,result是变换后图片,最后一个参数是拼接后的图像尺寸
            # 也即是 将 A 进行视角变换后,并扩充其原图像,便于之后拼接
            result = cv2.warpPerspective(imageA, H, (imageA.shape[1] + imageB.shape[1], imageA.shape[0]))
            self.cv_show('result', result)
            # 将图片B传入result图片最左端,拼接
            result[0:imageB.shape[0], 0:imageB.shape[1]] = imageB
            self.cv_show('result', result)
            # 检测是否需要显示图片匹配
            if showMatches:
                # 生成匹配图片
                vis = self.drawMatches(imageA, imageB, kpsA, kpsB, matches, status)
                # 返回结果
                return (result, vis)
            # 返回匹配结果
            return result
        # 自定义图像显示函数
        def cv_show(self,name,img):
            cv2.imshow(name, img)
            cv2.waitKey(0)
            cv2.destroyAllWindows()
        # 特征检测
        def detectAndDescribe(self, image):
            # 将彩色图片转换成灰度图
            gray = cv2.cvtColor(image, cv2.COLOR_BGR2GRAY)
            # 建立SIFT生成器
            descriptor = cv2.SIFT_create()
            # 检测SIFT特征点,并计算描述子
            (kps, features) = descriptor.detectAndCompute(image, None)
            # kps中包含了坐标、角度、大小等一系列参数,将特征点集转换成NumPy数组
            kps = np.float32([kp.pt for kp in kps])
            # 返回特征点集,及对应的描述特征
            return (kps, features)
        # 使用Knn算法进行暴力匹配
        def matchKeypoints(self, kpsA, kpsB, featuresA, featuresB, ratio, reprojThresh):
            # 建立暴力匹配器
            matcher = cv2.BFMatcher()
            # 使用KNN检测来自A、B图的SIFT特征匹配对,K=2,一个点最多只会对应两个点
            # Knn蛮力匹配会自动进行排序,距离小的在前(最佳匹配在前)
            rawMatches = matcher.knnMatch(featuresA, featuresB, 2)
            matches = []
            for m in rawMatches:
                # 当最近距离跟次近距离的比值小于ratio值时,保留此匹配对
                if len(m) == 2 and m[0].distance < m[1].distance * ratio:
                # 存储两个点在featuresA, featuresB中的索引值
                    matches.append((m[0].trainIdx, m[0].queryIdx))
            # 当筛选后的匹配对大于4时,计算视角变换矩阵
            if len(matches) > 4:
                # 获取匹配对的点坐标
                # 利用列表生成式先生成list,再生成阵列
                # matches内部的数据格式为 : [((x_B, y_B),(x_A, y_A)), ((),()), ..., ((),())]
                ptsA = np.float32([kpsA[i] for (_, i) in matches])
                ptsB = np.float32([kpsB[i] for (i, _) in matches])
                # 计算视角变换矩阵
                (H, status) = cv2.findHomography(ptsA, ptsB, cv2.RANSAC, reprojThresh)
                # 返回结果
                return (matches, H, status)
            # 如果匹配对小于4时,返回None
            return None
        # 只是将两张未处理的图直接拼接在一起后标记出特征点联系
        def drawMatches(self, imageA, imageB, kpsA, kpsB, matches, status):
            # 初始化可视化图片,将A、B图左右连接到一起
            (hA, wA) = imageA.shape[:2]
            (hB, wB) = imageB.shape[:2]
            vis = np.zeros((max(hA, hB), wA + wB, 3), dtype="uint8")
            # 宽度相加、高度自适应
            vis[0:hA, 0:wA] = imageA
            vis[0:hB, wA:] = imageB
            # 联合遍历,画出匹配对
            for ((trainIdx, queryIdx), s) in zip(matches, status):
                # 当点对匹配成功时,画到可视化图上
                if s == 1:
                    # 画出匹配对
                    ptA = (int(kpsA[queryIdx][0]), int(kpsA[queryIdx][1]))
                    # 宽度叠加
                    ptB = (int(kpsB[trainIdx][0]) + wA, int(kpsB[trainIdx][1]))
                    cv2.line(vis, ptA, ptB, (0, 0, 255), 1)
            # 返回可视化结果
            return vis
    

    2. ImageStiching.py

    主函数,控制程序执行流程

    from Stitcher import Stitcher
    import cv2
    # 读取拼接图片
    imageA = cv2.imread("left_01.png")
    imageB = cv2.imread("right_01.png")
    # 把图片拼接成全景图
    # 实例化 Stitcher 类
    stitcher = Stitcher()
    # 最后的参数用来是控制是否在处理过程中显示图像
    (result, vis) = stitcher.stitch([imageA, imageB], showMatches=True)
    # 显示所有图片
    cv2.imshow("Image A", imageA)
    cv2.imshow("Image B", imageB)
    cv2.imshow("Keypoint Matches", vis)
    cv2.imshow("Result", result)
    cv2.waitKey(0)
    cv2.destroyAllWindows()
    

    四、效果展示

    右边图像:

    将右边图像进行映射变换(单应)并进行填充后的结果:

    可以看出上述图像有少许失真。

    拼接成功的图像:

    左边图像无需处理,直接填入即可。

    两张原图像和Knn特征匹配后的结果:

    图像拼接只需要改动其中一张图像的“视角”,也就是只需要对其中一张图像进行单应变换。且最终结果就是直接拼接。

    注意detectAndCompute方法返回的kps中返回的不止是坐标信息还有角度、大小等信息

    注意KnnMatch的返回值信息

    分类:
    开发工具
    标签: