论文地址:https://arxiv.org/abs/2304.02008
源码地址:https://github.com/cvg/GlueStick
概述
针对视角变化时在闭塞、无纹理、重复纹理区域的线段匹配难的问题,本文提出一种新的匹配范式(GlueStick),该方法基于深度图神经网络将点、线的描述符统一到一个框架中,利用点之间的信息将来自匹配图像之间的线进行粘合,提高了模型的联合匹配效率,表明了在单一框架中使用两种特征的互补性能大幅度提升性能。
本文的主要贡献如下:文章来源:https://www.toymoban.com/news/detail-717192.html
- 使用数据驱动的方法代替启发式几何策略进行线匹配,在统一的框架中联合表征点与线。
- 提供了一种新的架构,充分挖掘图像内特征之间的局部关联信息。
- 实验结果表明,所提出的方法比之前最先进的方法有较大提升。
模型架构
受启发于:在匹配过程中,每个特征都可以利用其周围的特征信息来提高匹配性能,如线段可以利用周围的点来增强自己的表征能力,或者反之亦然。此外,网络在训练的过程中可以自动学习到对匹配任务有用的周围的点或者线。模型的主要框架如图2所示,主要包含三个部分:文章来源地址https://www.toymoban.com/news/detail-717192.html
- Front-En
到了这里,关于论文阅读《GlueStick: Robust Image Matching by Sticking Points and Lines Together》的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!