论文地址:https://arxiv.org/pdf/2206.02066.pdf
源码地址:https://github.com/XuJiacong/PIDNet文章来源:https://www.toymoban.com/news/detail-483760.html
概述
针对双分支模型在语义分割任务上直接融合高分辨率的细节信息与低频的上下文信息过程中细节特征会被上下文信息掩盖的问题,提出了一种新的网络架构PIDNet,该模型受启发于PID控制器并包含:空间细节分支、上下文分支与边界注意力分支。通过使用边界注意力来引导空间细节与上下文信息融合。实验结果表明该模型的精度超过了具有相似推理速度的所有模型,在Cityscapes和CamVid数据集上取得了最佳的推理速度和精确度的平衡。文章的主要贡献为:文章来源地址https://www.toymoban.com/news/detail-483760.html
- 将PID控制器与CNN相结合,提出一个三分支的网络结构 。
- 提出Bag fusion模块来权衡空间细节与上下文信息,提高了PIDNet的性能。
- PIDNet与现有的方法相比,在推理速度与准确度之间取得了最佳的表现:在Cityscapes测试数据集上取得了78.6%的mIOU与93.2 FPS,且PIDNet-L 取得了80.6% 的mIOU的优异表现。
方法
PIDNet: A Novel Three-branch Network
到了这里,关于论文阅读《PIDNet: A Real-time Semantic Segmentation Network Inspired by PID》的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!