基于图的数据关联论文《CLIPPER: A Graph-Theoretic Framework for Robust Data Association》学习

这篇具有很好参考价值的文章主要介绍了基于图的数据关联论文《CLIPPER: A Graph-Theoretic Framework for Robust Data Association》学习。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

一、基本概念

基本思想是将数据关联问题转换为图,计算最稠密的全连接子图,具体描述有点拗口:

1、图的节点是什么

假设有两组数据setA和setB,setA有a,b,c,d,e这几个点,setB里面有i,j,k,l这个几个点。
如果认为setA中的某个点a和setB中的某个点j能匹配,setA中的另一个点c和setB中的另一个点l能匹配,那么a-c的相对关系和j-l的相对关系应该是一致的。这个相对关系可以自己设计。这个也很好理解。
这个思路,其实也是所谓的geometry consistency检查的内容。比如orbslam中多次去检测连续几帧的特征点能连续的被匹配到,数量有一定的要求。其实orbslam里不是很严格的几何一致性检测,只是基于概率上来说,不是的概率已经很低了。

看一下论文里面的示意图:
基于图的数据关联论文《CLIPPER: A Graph-Theoretic Framework for Robust Data Association》学习,地图处理,学习

2、怎么找最稠密的子图

其实以上的思路,自己用过,但是没有进行进一步的处理,提取成为一个最大全联通子图的问题,更没有想到后面的优化。
当时是找到匹配后,找一个点和另一个点计算相对关系,把另一组中的点对也找出来,计算相对关系,然后比较两个相对关系的相似度,满足条件就认为多一个支持度,大概计算一下谁的支持度最多。

重点是理解优化的思路,这个怎么就能够通过优化计算出来了。如果是原始的方法,这个计算,就是一个n的n次方的时间复杂度,可想而知,不太可能在实际中被使用。大概就是这么个结构:

for
    for 
         for
           ....
           

二、关于优化目标

1 先看看最原始的目标

基于图的数据关联论文《CLIPPER: A Graph-Theoretic Framework for Robust Data Association》学习,地图处理,学习

u是我们的优化目标。我们能不能令u的所有元素都是1呢?不能,因为subject to决定了,如果M(i,j)=0,那么对应ui和uj只能有一个为1 。
原始的找出最优的u向量的值,还是一个 n n n^n nn的复杂度。

上面的问题,如果M是一个二值矩阵,则可以转换为下面的优化目标:
基于图的数据关联论文《CLIPPER: A Graph-Theoretic Framework for Robust Data Association》学习,地图处理,学习

因为ui不能都取1,所以上面(2)的优化也是有意义的,很明显就是我们要找的。这个问题又等价于MCP问题。上面的文字还解析了为什么能正确的找出来,是因为假设噪声数据都是无序无规律,不会有系统性偏差的,所以相对关系就是一个随机数,而正确关联的数据,其相对关系都是比较一致的。
上面也解析了MCP是一个NP-hard的问题。不能硬解。

但是,说起来,M这个矩阵并不是一个0,1矩阵,而是内部是浮点数,这个也好理解,不是每次观测都是完美的,两个东西,在两次观测中的相对位置会有所变动是有可能的,所以,需要一个相似度来去衡量。为1的话当然好,那就是完全相似,那不是很相似,又有点相似,就需要一个值来去衡量了,看第一个示意图,用两种相似度的衡量,那个矩形框r(x)就是0或者1,而高斯分布的曲线s(x)就是对相似度有一个具体的分辨,一般这个是我们要的。

论文后面说到,公式(2)不是目标,而是需要将M考虑进去。
基于图的数据关联论文《CLIPPER: A Graph-Theoretic Framework for Robust Data Association》学习,地图处理,学习

2 怎么进一步分析这个优化目标

解决(1)的主要挑战在于问题的组合复杂性,这是由于其二进制域和u的非线性目标所导致的。这使得在实时环境中以全局最优的方式解决问题变得困难,即使对于小规模的数据关联问题也是如此。一个常见的解决方法是放松(1)的域和约束,得到一个连续的问题,便于快速求解,然后将该解投影回原问题的域和约束流形。在可以考虑的放松策略中,以下方法的主要优势是从放松问题中获得的解与原问题的最优解相对应,很快将会讨论。
就是这个:
基于图的数据关联论文《CLIPPER: A Graph-Theoretic Framework for Robust Data Association》学习,地图处理,学习

与(1)的区别是什么呢?M矩阵,原来是0的地方,填上了一个负数,来表示惩罚,比如同时选择ui和uj,那么总分就会被惩罚降低下来。而且这个惩罚是2倍的uiujd,就是uiujd+ujuid。把subject to的给集成进去一起考虑了。确实是高明。
关键来了:“因此,随着 d 的增加,违反约束条件的解 u 的元素被推向零。”

同时,可以看到,对于所谓的放松问题域就体现出来了,之前(1)中,u的取值是0或1的n维向量,而在(5)这里,已经变成了正实数向量了,这就给优化建立了基础;紧接着,把约束也放进表达式内,就完整的完成了对于原来问题域的放松和改造,只要对这个(5)(6)进行优化就可以了。
给定u作为随机数(n维向量),里面的每一个元素都是0~1之间的实数,不断地优化这个u向量,看能否取得最大的值。这里有有一个问题,优化的梯度怎么计算,依据是什么?而且之前做的是最小化目标函数,现在是最大化,怎么处理?

“当 d ≥ n 时,(5)的(局部或全局)最优解满足原始问题中的约束,即如果 M(i, j) = 0,则 u_i * u_j = 0。这个事实已经在[18]中针对 M 为二进制矩阵的情况下进行了证明。虽然我们已经将证明扩展到了加权情况,但这个讨论超出了本文的篇幅限制,将在随后的期刊投稿中呈现。我们指出,由于(1)是一个NP难题,根据初始条件,用于解决(5)的优化算法可能会收敛到局部最优解。为了保证找到全局最优解,需要搜索整个解空间。”

“给定满足 d ≥ n 的(5)的解 u,设 G0 ⊆ G 表示对应于 u 的非零元素的子图,并且 M0 是对应于 G0 的 M 的子矩阵。注意到 u,因此 G0,在(1)中满足约束条件,问题(1)可以简化为将 u 二值化,使目标最大化。这等价于(3)中的最密子图问题,其目标是找到具有最大密度的 G00 ⊆ G0。最密子图问题可以使用现有的算法[26]在多项式时间内解决,但通过选择 u > Mu 的 ω̂ = round(u > Mu) 最大元素作为 G00 的顶点,可以立即获得一个很好的近似答案。这个解决方法的合理性可以从以下众所周知的事实得到解释:u > Mu,即 G0 的谱半径,是图的密度的紧密上界[27],而 u 的非零元素,即 M0 的主特征向量,代表其对应顶点的中心性,这是图中顶点连通性的度量[28]。”

实际算法:
基于图的数据关联论文《CLIPPER: A Graph-Theoretic Framework for Robust Data Association》学习,地图处理,学习

随机初始化了u向量,第8行,是u.tMu对u求导的结果。参考:https://blog.csdn.net/daaikuaichuan/article/details/80620518

不直接在梯度上进行增加,而是在球形上(||u||=1 且 u>=0)u的切平面上计算一个移动量,是担心破坏||u||<=1的情况。文章来源地址https://www.toymoban.com/news/detail-517661.html

到了这里,关于基于图的数据关联论文《CLIPPER: A Graph-Theoretic Framework for Robust Data Association》学习的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 论文笔记 Graph Attention Networks

    2018 ICLR 无法完成inductive任务 inductive任务是指: 训练阶段与测试阶段需要处理的graph不同。 通常是训练阶段只是在子图上进行,测试阶段需要处理未知的顶点。 GGN 的参数依赖于邻接矩阵A/拉普拉斯矩阵L,所以换了一张图,就会有不同的A和L 处理有向图的瓶颈,不容易实现分

    2024年02月12日
    浏览(31)
  • [异构图-论文阅读]Heterogeneous Graph Transformer

    这篇论文介绍了一种用于建模Web规模异构图的异构图变换器(HGT)架构。以下是主要的要点: 摘要和引言 (第1页) 异构图被用来抽象和建模复杂系统,其中不同类型的对象以各种方式相互作用。 许多现有的图神经网络(GNNs)主要针对同构图设计,无法有效表示异构结构。

    2024年02月06日
    浏览(38)
  • 论文笔记:Multiplex Heterogeneous Graph Convolutional Network

    导致很难捕获到跨不同关系的异构结构信号 什么是多类型节点之间多重网络的关系异质性? 首先要知道什么是多重网络(multiplex network),在一个网络中,用户可能会对一个商品有多种交互,比如点击、购买、评论,这些交互都形成了用户节点与商品节点交互的边,但这些边的

    2024年02月05日
    浏览(30)
  • 【论文阅读】Deep Graph Contrastive Representation Learning

    作者:Yanqiao Zhu Yichen Xu 文章链接:Deep Graph Contrastive Representation Learning 代码链接:Deep Graph Contrastive Representation Learning 现实世界中,图的标签数量较少,尽管GNNs蓬勃发展,但是训练模型时标签的可用性问题也越来越受到关心。 传统的无监督图表征学习方法,例如DeepWalk和nod

    2024年01月18日
    浏览(43)
  • 【论文阅读】Graph-less Collaborative Filtering

    2023WWW CCFA 原文地址 code 图神经网络(GNNs)在图结构的用户-项目交互数据上显示了表示学习的协同过滤(CF)任务的能力。然而, 由于现有的基于 GNN 的CF模型在相邻节点之间固有的递归消息传播,低通拉普拉斯平滑算子的过平滑和噪声效应,可能会产生难以区分和不准确的用

    2024年02月11日
    浏览(24)
  • AI:150-基于深度学习的医学数据挖掘与病症关联发现

    🚀点击这里跳转到本专栏,可查阅专栏顶置最新的指南宝典~ 🎉🎊🎉 你的技术旅程将在这里启航! 从基础到实践,深入学习。无论你是初学者还是经验丰富的老手,对于本专栏案例和项目实践都有参考学习意义。 ✨✨✨ 每一个案例都附带关键代码,详细讲解供大家学习,

    2024年03月22日
    浏览(41)
  • 【论文导读】- Variational Graph Recurrent Neural Networks(VGRNN)

    Variational Graph Recurrent Neural Networks(VGRNN) 原文地址:Variational Graph Recurrent Neural Networks(VGRNN):https://arxiv.org/abs/1908.09710 源码: https://github.com/VGraphRNN/VGRNN Representation learning over graph structured data has been mostly studied in static graph settings while efforts for modeling dynamic graphs are still scant

    2024年02月08日
    浏览(39)
  • 论文笔记:E(n) Equivariant Graph Neural Networks

            本文介绍了一种新模型来学习与旋转、平移、反射和排列等变的图神经网络,称为 E(n)-等变图神经网络 (EGNN)。          与现有方法相比,EGNN不需要在中间层中计算昂贵的高阶表示,同时仍能获得有竞争力或更好的性能。 此外,虽然现有方法仅限于 3 维空间的

    2023年04月08日
    浏览(29)
  • 【论文阅读】GPT4Graph: Can Large Language Models Understand Graph Structured Data?

    作者:Jiayan Guo, Lun Du, Hengyu Liu 文章链接:GPT4Graph: Can Large Language Models Understand Graph Structured Data? An Empirical Evaluation and Benchmarking 代码链接:GPT4Graph: Can Large Language Models Understand Graph Structured Data? An Empirical Evaluation and Benchmarking 通过使用自然语言描述图并向LLM提供文本描述,直接

    2024年01月20日
    浏览(32)
  • 利用weka进行数据挖掘——基于Apriori算法的关联规则挖掘实例

    首先,如果不熟悉weka的使用的话,可以从我的git仓库里面拉取一下weka的相关教程,仓库里面还有包含此次实例的所有资源 我们可以在weka的官网上下载weka软件:weka官网 如果下载速度慢的话也可以直接从我的git仓库里面拉取这个软件,软件是win64位的weka-3-8-6 然后找到对应版

    2024年02月06日
    浏览(32)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包