图像拼接

一、总体方法和流程讲解

将两张视角不同的图像拼接起来

  1. 如何将两张图像的视角进行匹配?

    使用特征提取后的特征匹配,找出匹配最佳的四对特征点,反解出变换矩阵 H ,数组词将其中一幅图像使用此初始化磁盘变换矩阵进行投影变换,从而实现视角匹配

  2. 如何将匹配视角后的两幅图初始化英文像进行拼接?

    直接利用numpy的阵列初始化sdk什么意思操作将两幅图测试英文图像组合在一起即可。

二、补充知识

主要是Ope角点法nWindowscv中的findHom初始化sdk什么意思ograph数组y的参数method中的ransacRepWindowsrojThreshold含义,还有就是detectAndCompute返回值中的kps参数包含内容。

1. findHomography函数(Cp初始化磁盘p版)

  1. 计算多个二维点对之间的最优单映射变换矩阵 H(3行x3列) ,使用最小均方误差或者RANSAC方法

  2. 函数功能:找初始化是什么意思到两个平面之间的转换矩阵。

     Mat cv::findHomography	(
             InputArray 	srcPoints,
             ​                                
             InputArray 	dstPoints,
             ​                                
             int 	method = 0,
             ​                                
             double 	ransacReprojThreshold = 3,
             ​                                
             OutputArray 	mask = noArray(),
             ​                               
             const int 	maxIters = 2000,
             ​                               
             const double 	confidence = 0.995 
             ​	
             )
    
  3. 参数详解:

    1. srcPoints 源平面中点的坐标矩阵,可以是CV_32FC2类型,也可以是vector类型

    2. dst测试工程师Po数组去重ints 目标平面中点的坐标矩阵,可以是CV_32FC2类型,也可以是初始化失败是怎么解决vector类型

    3. method 计算单应矩阵角点法所使用的方法。不同的方法对应不同的参测试抑郁症的20道题数,具体如下:

      • 0 – 利用所有点的常规方法

      • RANSAC – RANSAC-基于RANSAC的鲁棒算法

      • LMEDS – 最小中值鲁棒算法

      • Rwindows11有必要升级吗HO – PROSAC-基于PROSAC的鲁棒算法

      • ransacReprojThreshold 将点对视为内点的最大允许重投影错误阈值(仅用于RANSAC和RHO方初始化电脑法)。如果∥dstPointsi−convertPointsHomogeneous(H∗srcPoints⁡i)∥>ransacReprojThre测试仪shold| text { dstPoints }_{i}-text { convertPointsHomogeneous }left(H * operatorname{srcP数组初始化oints}_{i}right) |>text { ransacReprojThreshold }则点被认为是个外点(即错误匹配点对)。若srcPoints和dstPoints是以像素为单位的,则该参数通常设置在1角点到10的范围内。

    4. mask 可选输出掩码矩阵,通常由鲁棒算法(RANSAC或LMEDS)设置。 请注意,输入掩码矩阵是不需要设置的。

    5. maxIters RANSAC算法的最大迭代次数,默认值为2000。 confidence 可信度值,取值范围为0到1. 该函数能够找到并返回源平面和目标平面之间初始化英文的转换矩阵H,以便于反向投影错误率达到最小。

2. detectAndCompuWindowste返回值中的kps

kps是关键点。测试工程师它所包含的信息有:

  1. an测试工程师gle:角度,表示关键点的方向,为了保证方向不变形,SIFT算法通过对关键点周围邻windows是什么意思域进行梯度运算,求得该点方向。-1为初值。
  2. cl测试用例ass_id:当要对图片进行分类时,我们可以用class_id对每个特征点进行区分,未设定时为-1,需要靠自己设定
  3. octave:代表是测试你适合学心理学吗从金字塔哪一层提取的得到的数据。
  4. pt:关键点点的坐标
  5. response:响应程度,代表该点强壮大小,更确切的说,是该点角点的程度。
  6. size:该点直径初始化电脑的后果的大小

3. match与KnnMatch返数组公式回值解释

  1. 二者的返回值都是DMatch的数据结构。

  2. match:

    1. 代码:

      bf = cv.BFMatcher_create()
      matches = bf.match(des1, des2)
      for matche in matches:
          print(matche)
      
    2. 结果:

      <DMatch 0x7fcf509b90b0>
      <DMatch 0x7fcf509b90d0>
      <DMatch 0x7fcf509b90f0>
      <DMatch 0x7fcf509b9110>
      
  3. Dmatch数据结构:

    主要含有三个非常重要的数据:queryIdx,trainIdx,distance

    1. queryIdx:测试图像的特征点描述符的下标(第几个特征点描述符),同时也是描初始化是什么意思述符对应特征点的下标。
    2. trainIdx:样本图像的特征点描述符下标,windows系统同时也是描述符对应特征点的下标。
    3. distance:代表这对匹配的特征点描述符的欧式距离,数值越小也就说明两个特征点越相似。
  4. 区别

    Match匹配是“最佳”匹配,所以返回值list中的元素类型都是单个Dmatch,而 KnnMatch在设定参数 k = 2 后,就会对同一点进行最佳匹配和次佳匹数组和链表的区别配,所以返回值list中的元素类型都是一对Dmatch,也即[Dmatch, Dmatch]

三、代码

1. Stitcher.py

主要用于定义Stitcher类,封装了拼接两幅视角不同的图像的基本流程和windows许可证即将过期怎么办数组的定义法。

import numpy as np
import cv2
# 自定义匹配类型
class Stitcher:
    # 拼接函数, 0.75 是 OpenCV 官方给出的数据,reprojThresh用于滤除匹配不当的特征点对
    # showMatches 用于判别是否需要显示处理后的图像
    def stitch(self, images, ratio=0.75, reprojThresh=4.0,showMatches=False):
        # 获取输入图片
        (imageB, imageA) = images
        # 检测A、B图片的SIFT关键特征点,并计算特征描述子
        (kpsA, featuresA) = self.detectAndDescribe(imageA)
        (kpsB, featuresB) = self.detectAndDescribe(imageB)
        # 匹配两张图片的所有特征点,返回匹配结果
        M = self.matchKeypoints(kpsA, kpsB, featuresA, featuresB, ratio, reprojThresh)
        # 如果返回结果为空,没有匹配成功的特征点,退出算法
        if M is None:
            return None
        # 否则,提取匹配结果
        # H是3x3视角变换矩阵      
        (matches, H, status) = M
        # 将图片A进行视角变换,result是变换后图片,最后一个参数是拼接后的图像尺寸
        # 也即是 将 A 进行视角变换后,并扩充其原图像,便于之后拼接
        result = cv2.warpPerspective(imageA, H, (imageA.shape[1] + imageB.shape[1], imageA.shape[0]))
        self.cv_show('result', result)
        # 将图片B传入result图片最左端,拼接
        result[0:imageB.shape[0], 0:imageB.shape[1]] = imageB
        self.cv_show('result', result)
        # 检测是否需要显示图片匹配
        if showMatches:
            # 生成匹配图片
            vis = self.drawMatches(imageA, imageB, kpsA, kpsB, matches, status)
            # 返回结果
            return (result, vis)
        # 返回匹配结果
        return result
    # 自定义图像显示函数
    def cv_show(self,name,img):
        cv2.imshow(name, img)
        cv2.waitKey(0)
        cv2.destroyAllWindows()
    # 特征检测
    def detectAndDescribe(self, image):
        # 将彩色图片转换成灰度图
        gray = cv2.cvtColor(image, cv2.COLOR_BGR2GRAY)
        # 建立SIFT生成器
        descriptor = cv2.SIFT_create()
        # 检测SIFT特征点,并计算描述子
        (kps, features) = descriptor.detectAndCompute(image, None)
        # kps中包含了坐标、角度、大小等一系列参数,将特征点集转换成NumPy数组
        kps = np.float32([kp.pt for kp in kps])
        # 返回特征点集,及对应的描述特征
        return (kps, features)
    # 使用Knn算法进行暴力匹配
    def matchKeypoints(self, kpsA, kpsB, featuresA, featuresB, ratio, reprojThresh):
        # 建立暴力匹配器
        matcher = cv2.BFMatcher()
        # 使用KNN检测来自A、B图的SIFT特征匹配对,K=2,一个点最多只会对应两个点
        # Knn蛮力匹配会自动进行排序,距离小的在前(最佳匹配在前)
        rawMatches = matcher.knnMatch(featuresA, featuresB, 2)
        matches = []
        for m in rawMatches:
            # 当最近距离跟次近距离的比值小于ratio值时,保留此匹配对
            if len(m) == 2 and m[0].distance < m[1].distance * ratio:
            # 存储两个点在featuresA, featuresB中的索引值
                matches.append((m[0].trainIdx, m[0].queryIdx))
        # 当筛选后的匹配对大于4时,计算视角变换矩阵
        if len(matches) > 4:
            # 获取匹配对的点坐标
            # 利用列表生成式先生成list,再生成阵列
            # matches内部的数据格式为 : [((x_B, y_B),(x_A, y_A)), ((),()), ..., ((),())]
            ptsA = np.float32([kpsA[i] for (_, i) in matches])
            ptsB = np.float32([kpsB[i] for (i, _) in matches])
            # 计算视角变换矩阵
            (H, status) = cv2.findHomography(ptsA, ptsB, cv2.RANSAC, reprojThresh)
            # 返回结果
            return (matches, H, status)
        # 如果匹配对小于4时,返回None
        return None
    # 只是将两张未处理的图直接拼接在一起后标记出特征点联系
    def drawMatches(self, imageA, imageB, kpsA, kpsB, matches, status):
        # 初始化可视化图片,将A、B图左右连接到一起
        (hA, wA) = imageA.shape[:2]
        (hB, wB) = imageB.shape[:2]
        vis = np.zeros((max(hA, hB), wA + wB, 3), dtype="uint8")
        # 宽度相加、高度自适应
        vis[0:hA, 0:wA] = imageA
        vis[0:hB, wA:] = imageB
        # 联合遍历,画出匹配对
        for ((trainIdx, queryIdx), s) in zip(matches, status):
            # 当点对匹配成功时,画到可视化图上
            if s == 1:
                # 画出匹配对
                ptA = (int(kpsA[queryIdx][0]), int(kpsA[queryIdx][1]))
                # 宽度叠加
                ptB = (int(kpsB[trainIdx][0]) + wA, int(kpsB[trainIdx][1]))
                cv2.line(vis, ptA, ptB, (0, 0, 255), 1)
        # 返回可视化结果
        return vis

2. ImageStiching.py

主函数,控制程序执行流程

from Stitcher import Stitcher
import cv2
# 读取拼接图片
imageA = cv2.imread("left_01.png")
imageB = cv2.imread("right_01.png")
# 把图片拼接成全景图
# 实例化 Stitcher 类
stitcher = Stitcher()
# 最后的参数用来是控制是否在处理过程中显示图像
(result, vis) = stitcher.stitch([imageA, imageB], showMatches=True)
# 显示所有图片
cv2.imshow("Image A", imageA)
cv2.imshow("Image B", imageB)
cv2.imshow("Keypoint Matches", vis)
cv2.imshow("Result", result)
cv2.waitKey(0)
cv2.destroyAllWindows()

四、效果展示

  1. 原图像:

    左边图像

    OpenCV Practise 03 - Image sticthing

    右边图像:

    OpenCV Practise 03 - Image sticthing

  2. 初始化电脑的后果右边图像进行映射变换(单应)并进行填充后的结果:

    OpenCV Practise 03 - Image sticthing

    可以看出上述图像有少许失真。

  3. 拼接成功的图像:

    左边图像无需处理,直接填入即可。

    OpenCV Practise 03 - Image sticthing

  4. 两张原图像和Knn特征匹配后的结果:

    OpenCV Practise 03 - Image sticthing

五、测试仪总结

  1. 图像拼接只需要改动其中一张图像的“视角”,也就是只需要对其中一张图像进行单应变换。且最终结果就是直接拼接。

  2. 注意detectAnwindows7旗舰版dCompute方法返回的kps中返回的不止是坐标信息还有角度、大小等信息

  3. 注意KnnMatch的返回值信息