改进YOLO系列 | CVPR2023最新注意力 | BiFormer:视觉变换器与双层路由注意力

这篇具有很好参考价值的文章主要介绍了改进YOLO系列 | CVPR2023最新注意力 | BiFormer:视觉变换器与双层路由注意力。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

改进YOLO系列 | CVPR2023最新注意力 | BiFormer:视觉变换器与双层路由注意力

作为视觉变换器的核心构建模块,注意力是一种强大的工具,可以捕捉长程依赖关系。然而,这种强大的功能付出了代价:计算负担和内存占用巨大,因为需要在所有空间位置上计算成对的令牌交互。一系列的研究尝试通过引入手工制作和与内容无关的稀疏性来缓解这个问题,例如将注意力操作限制在本地窗口、轴向条纹或扩张窗口内。与这些方法不同,我们提出了一种新颖的基于双层路由的动态稀疏注意力,以实现更灵活的计算分配和内容感知。具体而言,对于一个查询,无关的键-值对首先在粗略的区域级别进行过滤,然后在剩余候选区域的并集中应用细粒度的令牌-令牌注意力(即路由区域)。我们提供了所提出的双层路由注意力的简单而有效的实现,它利用稀疏性来节省计算和内存,并且只涉及GPU友好的密集矩阵乘法。基于所提出的双层路由注意力,我们还提出了一种新的通用视觉变换器,称为BiFormer。作为一种对查询自适应的方式,BiFormer只关注一小部分相关的令牌,而不会受到其他无关令牌的干扰,从而在性能和计算效率方面都表现出色,尤其在密集预测任务中。在多个计算机视觉任务(如图像分类、目标检测和语义分割)上的实证结果验证了我们设计的有效性。

论文地址:https://arxiv.org/pdf/2303.08810.pdf文章来源地址https://www.toymoban.com/news/detail-508986.html


原理图

到了这里,关于改进YOLO系列 | CVPR2023最新注意力 | BiFormer:视觉变换器与双层路由注意力的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包赞助服务器费用

相关文章

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包