摘要
涨点效果:在我自己的数据集上,mAP50 由0.986涨到了0.991,mAP50-95由0.737涨到0.753,涨点明显!
本文提出了一种新型的注意力机制——Agent Attention,旨在平衡计算效率和表示能力。该机制在传统的注意力模块中引入了额外的agent tokens A,这些agent tokens首先为query tokens Q聚合信息,然后将其广播回Q。由于agent tokens的数量可以设计得远小于query tokens,因此Agent Attention在保持全局上下文建模能力的同时,显著提高了计算效率。有趣的是,所提出的agent attention等价于一种广义线性注意力,Agent Attention在各种视觉Transformer和各种视觉任务中都表现出了有效性,包括图像分类、目标检测、语义分割和图像生成。特别是在高分辨率场景中,由于其线性注意力的特性,Agent Attention表现出卓越的性能。当应用于Stable Diffusion时,我们的agent attention加速了生成过程,并显著提高了图像生成质量,而无需任何额外训练。
我尝试将Agent Attention加入到YoloV8中,实现了高效的涨点。文章来源:https://www.toymoban.com/news/detail-800394.html
论文《Agent Attention:Softmax与线性注意力的融合研究》
https://arxiv.org/pdf/2312.08874.pdf
在Transformer中,注意力模块是其关键组件。虽然全局注意力机制提供了高度的表达能力,但其过高的计算成本限制了其在各种场景下的应用。本文提出了一种新颖的注意力范式文章来源地址https://www.toymoban.com/news/detail-800394.html
到了这里,关于YoloV8改进策略:Agent Attention|Softmax与线性注意力的融合研究|有效涨点|代码注释与改进|全网首发(唯一)的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!