【OpenCV】SURF图像拼接和Stitcher拼接

这篇具有很好参考价值的文章主要介绍了【OpenCV】SURF图像拼接和Stitcher拼接。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

介绍两种图像拼接的方法,一种是SURF算法的图像拼接,另一种是Stitcher硬拼接

首先先从简单的讲起

一、Stitcher直接拼接

可以实现多张图片一起拼接,只要两行代码就可以实现拼接;

1.首先准备多张图片,放入向量容器中

    Mat img1 =imread("a.png");
    Mat img2 =imread("b.png");
    Mat img3 =imread("c.png");
    Mat img4 =imread("d.png");
    //图片放入容器中
    vector<Mat>images;
    images.push_back(img1);
    images.push_back(img2);
    images.push_back(img3);
    images.push_back(img4);

2. 创建Stitcher对象,调用拼接算法

第一行false是表示不使用gpu加速;

    //保存最终拼接图
    Mat result;
    
    Stitcher sti=Stitcher::createDefault(false);
    //将vector容器中所有的图片按顺序进行拼接,输出result
    Stitcher::Status sta=sti.stitch(images,result);
    if(sta!=Stitcher::OK)
    {
        cout<<"拼接失败"<<endl;
    }
    imshow("result",result);//显示

注:createDefault的方法在opencv3可用,opencv4改变了调用方式,为Stitcher::create

来看看这种拼接的效果吧

原图:

【OpenCV】SURF图像拼接和Stitcher拼接

 4张图

【OpenCV】SURF图像拼接和Stitcher拼接

 第一次输出效果:

【OpenCV】SURF图像拼接和Stitcher拼接

 第二次输出效果:

【OpenCV】SURF图像拼接和Stitcher拼接

可以看到,虽然能够拼接,但是有时候可能会丢失一部分,导致最右边没有拼接上;

虽然使用起来很简单,但是不能每次都达到想要的效果;

这边介绍第二种拼接方法:

二、SURF算法

SURF拼接一次只能拼接两张图片,其大致步骤就是匹配两幅图像中的特征点,找到最优匹配特征点;

根据配对的特征点计算坐标映射矩阵,求出右图的透视转换坐标;然后将右图透视转换后生成的图与左图进行整合,使用copyto将两图拼接

1.查找特征点

    Mat left=imread("left.png");
    Mat right=imread("right.png");
    imshow("left",left);
    imshow("right",right);
    //创建SURF算法对象
    Ptr<SURF> surf;
    //create 函数参数 海森矩阵阀值 800特征点以内
    surf =SURF::create(800);
    //创建一个暴力匹配器 用于特征点匹配
    BFMatcher matcher;

    //特征点容器 存放特征点KeyPoint 两张图准备两个
    vector<KeyPoint>key1,key2;
    //保存特征点
    Mat c,d;

    //1.查找特征点
    //左图 右图 识别特征点 是Mat对象 用c d保存
    surf->detectAndCompute(left,Mat(),key2,d);
    surf->detectAndCompute(right,Mat(),key1,c);

    //特征点对比
    vector<DMatch> matches;
    matcher.match(d,c,matches);//特征点匹配过后存入matchers容器

    //将匹配过后的特征点排序  从小到大,找到特征点连线
    sort(matches.begin(),matches.end());

2.保存最优匹配的特征点对象,进行划线

    vector<DMatch>best_matches;
    int prtpoint=std::min(50,(int)(matches.size()*0.15));
    for(int i=0;i<prtpoint;i++)
    {
        best_matches.push_back(matches[i]);
    }

    //2.1进行划线,连接两个最优特征点对象
    //NOT_DRAW_SINGLE_POINTS不画单个的点
    Mat outimg;
    drawMatches(left,key2,right,key1,best_matches,outimg,Scalar::all(-1),Scalar::all(-1),
                vector<char>(),DrawMatchesFlags::NOT_DRAW_SINGLE_POINTS);

3.特征点匹配

查找所有最优匹配特征点中,右图需要通过透视转换变形,而左图查找基准线

    vector<Point2f>imagepoint1,imagepoint2;
    for (int i= 0 ;i < best_matches.size();i++)
    {
        //查找特征点可连接处    右图需要通过透视转换变形
        imagepoint1.push_back(key1[best_matches[i].trainIdx].pt);
        //查找特征点可连接处    左图查找基准线
        imagepoint2.push_back(key2[best_matches[i].queryIdx].pt);
    }

4.透视转换,图形融合

根据配对的特征点计算坐标映射矩阵,求出透视转换坐标;将右图透视转换后生成的图与左图进行整合,使用copyto将两图拼接

    Mat homo = findHomography(imagepoint1,imagepoint2,CV_RANSAC);

    //根据透视转换矩阵进行计算 右图的四个坐标
    CalcCorners(homo,right);
    //接收透视转换结果
    Mat imageTransForm;
    //透视转换
    warpPerspective(right,imageTransForm,homo,Size(MAX(corners.right_top.x,corners.right_bottom.x),left.rows));
    imshow("imageTransForm",imageTransForm);

    //将左图和右转换图进行整合
    int dst_width = imageTransForm.cols;//右转换图的宽
    int dst_height = left.rows;//左图的高

    Mat dst(dst_height,dst_width,CV_8UC3);//最终结果图
    dst.setTo(0);

    imageTransForm.copyTo(dst(Rect(0,0,imageTransForm.cols,imageTransForm.rows)));
    left.copyTo(dst(Rect(0,0,left.cols,left.rows)));

 5.拼接后图片可能存在拼接处的裂缝,还有扭曲,可以进行一些优化

//图像融合的去裂缝处理操作
void OptimizeSeam(Mat& img1, Mat& trans, Mat& dst)
{
    int start = MIN(corners.left_top.x, corners.left_bottom.x);//开始位置,即重叠区域的左边界

    double processWidth = img1.cols - start;//重叠区域的宽度
    int rows = dst.rows;
    int cols = img1.cols; //注意,是列数*通道数
    double alpha = 1;//img1中像素的权重
    for (int i = 0; i < rows; i++)
    {
        uchar* p = img1.ptr<uchar>(i);  //获取第i行的首地址
        uchar* t = trans.ptr<uchar>(i);
        uchar* d = dst.ptr<uchar>(i);
        for (int j = start; j < cols; j++)
        {
            //如果遇到图像trans中无像素的黑点,则完全拷贝img1中的数据
            if (t[j * 3] == 0 && t[j * 3 + 1] == 0 && t[j * 3 + 2] == 0)
            {
                alpha = 1;
            }
            else
            {
                //img1中像素的权重,与当前处理点距重叠区域左边界的距离成正比,实验证明,这种方法确实好
                alpha = (processWidth - (j - start)) / processWidth;
            }

            d[j * 3] = p[j * 3] * alpha + t[j * 3] * (1 - alpha);
            d[j * 3 + 1] = p[j * 3 + 1] * alpha + t[j * 3 + 1] * (1 - alpha);
            d[j * 3 + 2] = p[j * 3 + 2] * alpha + t[j * 3 + 2] * (1 - alpha);

        }
    }
}

完整源码:

#include <iostream>
#include <opencv2/opencv.hpp>
#include <opencv2/highgui.hpp>//图像融合
#include <opencv2/xfeatures2d.hpp>//拼接算法
#include <opencv2/calib3d.hpp>
#include <opencv2/imgproc.hpp>
using namespace std;
using namespace cv;
using namespace cv::xfeatures2d;
typedef struct
{
    Point2f left_top;
    Point2f left_bottom;
    Point2f right_top;
    Point2f right_bottom;
}four_corners_t;

four_corners_t corners;

void CalcCorners(const Mat& H, const Mat& src)
{
    double v2[] = { 0, 0, 1 };//左上角
    double v1[3];//变换后的坐标值
    Mat V2 = Mat(3, 1, CV_64FC1, v2);  //列向量
    Mat V1 = Mat(3, 1, CV_64FC1, v1);  //列向量

    V1 = H * V2;
    //左上角(0,0,1)
    cout << "V2: " << V2 << endl;
    cout << "V1: " << V1 << endl;
    corners.left_top.x = v1[0] / v1[2];
    corners.left_top.y = v1[1] / v1[2];

    //左下角(0,src.rows,1)
    v2[0] = 0;
    v2[1] = src.rows;
    v2[2] = 1;
    V2 = Mat(3, 1, CV_64FC1, v2);  //列向量
    V1 = Mat(3, 1, CV_64FC1, v1);  //列向量
    V1 = H * V2;
    corners.left_bottom.x = v1[0] / v1[2];
    corners.left_bottom.y = v1[1] / v1[2];

    //右上角(src.cols,0,1)
    v2[0] = src.cols;
    v2[1] = 0;
    v2[2] = 1;
    V2 = Mat(3, 1, CV_64FC1, v2);  //列向量
    V1 = Mat(3, 1, CV_64FC1, v1);  //列向量
    V1 = H * V2;
    corners.right_top.x = v1[0] / v1[2];
    corners.right_top.y = v1[1] / v1[2];

    //右下角(src.cols,src.rows,1)
    v2[0] = src.cols;
    v2[1] = src.rows;
    v2[2] = 1;
    V2 = Mat(3, 1, CV_64FC1, v2);  //列向量
    V1 = Mat(3, 1, CV_64FC1, v1);  //列向量
    V1 = H * V2;
    corners.right_bottom.x = v1[0] / v1[2];
    corners.right_bottom.y = v1[1] / v1[2];
}
//图像融合的去裂缝处理操作
void OptimizeSeam(Mat& img1, Mat& trans, Mat& dst)
{
    int start = MIN(corners.left_top.x, corners.left_bottom.x);//开始位置,即重叠区域的左边界

    double processWidth = img1.cols - start;//重叠区域的宽度
    int rows = dst.rows;
    int cols = img1.cols; //注意,是列数*通道数
    double alpha = 1;//img1中像素的权重
    for (int i = 0; i < rows; i++)
    {
        uchar* p = img1.ptr<uchar>(i);  //获取第i行的首地址
        uchar* t = trans.ptr<uchar>(i);
        uchar* d = dst.ptr<uchar>(i);
        for (int j = start; j < cols; j++)
        {
            //如果遇到图像trans中无像素的黑点,则完全拷贝img1中的数据
            if (t[j * 3] == 0 && t[j * 3 + 1] == 0 && t[j * 3 + 2] == 0)
            {
                alpha = 1;
            }
            else
            {
                //img1中像素的权重,与当前处理点距重叠区域左边界的距离成正比,实验证明,这种方法确实好
                alpha = (processWidth - (j - start)) / processWidth;
            }

            d[j * 3] = p[j * 3] * alpha + t[j * 3] * (1 - alpha);
            d[j * 3 + 1] = p[j * 3 + 1] * alpha + t[j * 3 + 1] * (1 - alpha);
            d[j * 3 + 2] = p[j * 3 + 2] * alpha + t[j * 3 + 2] * (1 - alpha);

        }
    }
}
void directly()
{
    Mat img1 =imread("a.png");
    Mat img2 =imread("b.png");
    Mat img3 =imread("c.png");
    Mat img4 =imread("d.png");
//    imshow("a",img1);
//    imshow("b",img2);
//    imshow("c",img3);
//    imshow("d",img4);
    //图片放入容器中
    vector<Mat>images;
    images.push_back(img1);
    images.push_back(img2);
    images.push_back(img3);
    images.push_back(img4);
    //保存最终拼接图
    Mat result;

    Stitcher sti=Stitcher::createDefault(false);
    //将vector容器中所有的图片按顺序进行拼接,输出result
    Stitcher::Status sta=sti.stitch(images,result);
    if(sta!=Stitcher::OK)
    {
        cout<<"拼接失败"<<endl;
    }
    imshow("result",result);

}
int main()
{
    Mat left=imread("left.png");
    Mat right=imread("right.png");
    imshow("left",left);
    imshow("right",right);
    //创建SURF算法对象
    Ptr<SURF> surf;
    //create 函数参数 海森矩阵阀值 800特征点以内
    surf =SURF::create(800);
    //创建一个暴力匹配器 用于特征点匹配
    BFMatcher matcher;

    //特征点容器 存放特征点KeyPoint 两张图准备两个
    vector<KeyPoint>key1,key2;
    //保存特征点
    Mat c,d;

    //1.查找特征点
    //左图 右图 识别特征点 是Mat对象 用c d保存
    surf->detectAndCompute(left,Mat(),key2,d);
    surf->detectAndCompute(right,Mat(),key1,c);

    //特征点对比
    vector<DMatch> matches;
    matcher.match(d,c,matches);//特征点匹配过后存入matchers容器

    //将匹配过后的特征点排序  从小到大,找到特征点连线
    sort(matches.begin(),matches.end());

    //2.保存最优匹配的特征点对象
    vector<DMatch>best_matches;
    int prtpoint=std::min(50,(int)(matches.size()*0.15));
    for(int i=0;i<prtpoint;i++)
    {
        best_matches.push_back(matches[i]);
    }

    //2.1进行划线,连接两个最优特征点对象
    //NOT_DRAW_SINGLE_POINTS不画单个的点
    Mat outimg;
    drawMatches(left,key2,right,key1,best_matches,outimg,Scalar::all(-1),Scalar::all(-1),
                vector<char>(),DrawMatchesFlags::NOT_DRAW_SINGLE_POINTS);
    //imshow("outimg",outimg);//划线图

    //3.特征点匹配
    vector<Point2f>imagepoint1,imagepoint2;
    for (int i= 0 ;i < best_matches.size();i++)
    {
        //查找特征点可连接处    右图需要通过透视转换变形
        imagepoint1.push_back(key1[best_matches[i].trainIdx].pt);
        //查找特征点可连接处    左图查找基准线
        imagepoint2.push_back(key2[best_matches[i].queryIdx].pt);
    }
    //4、透视转换 图形融合
    //先进行计算坐标映射矩阵
    Mat homo = findHomography(imagepoint1,imagepoint2,CV_RANSAC);

    //根据透视转换矩阵进行计算 右图的四个坐标
    CalcCorners(homo,right);
    //接收透视转换结果
    Mat imageTransForm;
    //透视转换
    warpPerspective(right,imageTransForm,homo,Size(MAX(corners.right_top.x,corners.right_bottom.x),left.rows));
    imshow("imageTransForm",imageTransForm);

    //将左图和右转换图进行整合
    int dst_width = imageTransForm.cols;//右转换图的宽
    int dst_height = left.rows;//左图的高

    Mat dst(dst_height,dst_width,CV_8UC3);//最终结果图
    dst.setTo(0);

    imageTransForm.copyTo(dst(Rect(0,0,imageTransForm.cols,imageTransForm.rows)));
    left.copyTo(dst(Rect(0,0,left.cols,left.rows)));

    //5、优化图像,中间缝合处理
    OptimizeSeam(left,imageTransForm,dst);
    //输出拼接图像
    imshow("dst",dst);

    //directly();//直接拼接
    waitKey(0);
    return 0;
}

感谢观看!!!!

以上就是全部内容,如果对您有帮助,欢迎点赞评论,或者发现有哪里写错的,欢迎指正!

【OpenCV】SURF图像拼接和Stitcher拼接文章来源地址https://www.toymoban.com/news/detail-443032.html

到了这里,关于【OpenCV】SURF图像拼接和Stitcher拼接的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • C#处理医学影像(四):基于Stitcher算法拼接人体全景脊柱骨骼影像

    在拍摄脊柱或胸片时,经常会遇到因设备高度不够需要分段拍摄的情况, 对于影像科诊断查阅影像时希望将分段影像合并成一张影像,有助于更直观的观察病灶, 以下图为例的两个分段影像:       我们使用OpenCVSharp中的Stitcher类的Stitch方法,导入两张图像并拼接:  但结果

    2024年02月02日
    浏览(50)
  • OpenCV图像拼接和图像融合

    其它参考: https://zhuanlan.zhihu.com/p/362371939 https://blog.csdn.net/u013289254/article/details/103111601 主流的图像融合算法主要有以下几种: 1)直接进行图像拼接,会导致图片之间有很明显的界线 2)加权平均法,界线的两侧各取一定的比例来融合缝隙,速度快,但不自然 3)羽化算法,即

    2024年02月05日
    浏览(39)
  • opencv实现抠图,图像拼接,图像融合

    在OpenCV中,你可以使用图像拼接、抠图和将图像的一部分放在另一张图片的指定位置。以下是示例代码,演示如何执行这些操作: 图像拼接 要将两张图像拼接在一起,你可以使用  cv::hconcat (水平拼接)和  cv::vconcat (垂直拼接)函数。下面是一个示例代码,演示如何水平

    2024年02月05日
    浏览(38)
  • OpenCV进阶 — 图像拼接和图像融合技术

    图像拼接在实际的应用场景很广,比如无人机航拍,遥感图像等等,图像拼接是进一步做图像理解基础步骤,拼接效果的好坏直接影响接下来的工作,所以一个好的图像拼接算法非常重要。 再举一个身边的例子吧,你用你的手机对某一场景拍照,但是你没有办法一次将所有你

    2024年02月03日
    浏览(38)
  • opencv-全景图像拼接

    运行环境 python3.6 + opencv 3.4.1.15 stitcher.py

    2024年02月11日
    浏览(71)
  • opencv实践项目-图像拼接

    图像拼接是计算机视觉中最成功的应用之一。如今,很难找到不包含此功能的手机或图像处理API。在本 文中,我们将讨论如何使用OpenCV进行图像拼接。也就是,给定两张共享某些公共区域的图 像,目标是“缝合”它们并创建一个全景图像场景。当然也可以是给定多张图像,

    2024年02月02日
    浏览(42)
  • Opencv实战——图像拼接

      图像拼接(Image Stitching)是一种利用实景图像组成全景空间的技术,它将多幅图像拼接成一幅大尺度图像或360度全景图,接可以看做是场景重建的一种特殊情况,其中图像仅通过平面单应性进行关联。图像拼接在运动检测和跟踪,增强现实,分辨率增强,视频压缩和图像稳

    2024年02月02日
    浏览(44)
  • python opencv图像拼接

    OpenCV 是一个开源的计算机视觉库,可以用来进行图像处理和计算机视觉方面的开发。它提供了一系列的函数和类来实现图像拼接。 在 Python 中使用 OpenCV 进行图像拼接时,需要用到 cv2 库。首先,需要将需要拼接的图片读入,然后使用 cv2.createStitcher() 函数来创建一个图像拼接

    2024年02月16日
    浏览(55)
  • 利用OpenCV实现图像拼接

         图像拼接.      要实现图像拼接,简单来说有以下几步: 对每幅图进行特征点提取 对对特征点进行匹配 进行图像配准 把图像拷贝到另一幅图像的特定位置 对重叠边界进行特殊处理      PS:需要使用低版本的opencv,否则无法使用特征角点提取算子。      

    2024年02月10日
    浏览(41)
  • 【图像处理】图像拼接原理介绍

    图像拼接是图像处理的基础之一,虽然自己并没有直接做图像拼接方面的研究,但在面试中却多次被问到这方面的内容,可见这个知识点还是很重要的。事实上,很多场景都会用到图像拼接的知识,例如运动检测与跟踪、游戏画面的重建等。 本文参考自公众号“计算机视觉

    2024年02月05日
    浏览(45)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包