[论文阅读]CWD——基于稠密预测的通道式知识蒸馏

这篇具有很好参考价值的文章主要介绍了[论文阅读]CWD——基于稠密预测的通道式知识蒸馏。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

CWD

基于稠密预测的通道式知识蒸馏
论文网址:CWD
cwd 蒸馏,知识蒸馏,人工智能,深度学习,论文阅读

论文总结

这篇论文「Channel-wise Knowledge Distillation for Dense Prediction」提出了一种针对密集预测任务的基于通道的知识蒸馏方法。下面我详细讲解该方法的主要内容:

  1. 问题背景
    在计算机视觉任务中,图像分类只需要预测整张图像的类别,而密集预测需要对每个像素或对象进行预测,输出更丰富的结果,如语义分割、目标检测等。直接应用分类任务中的知识蒸馏方法于密集预测任务效果不佳。已有的方法通过建模空间位置之间(指的是图像中的像素位置)的关系来传递结构化知识。
  2. 方法概述
    论文提出了一种通道级的知识蒸馏方法。主要分为两个步骤:
    (1) 对特征图的每个通道进行softmax标准化,得到一个概率分布(表示了该通道中每个位置的相对重要性或响应强度)。
    (2) 计算教师网络和学生网络相应通道概率分布之间的asymmetric KL散度作为损失,使学生网络在前景显著区域模仿教师网络。
  3. 具体实现
    对特征图或logits的每个通道,对H×W个位置的激活值进行softmax计算,得到概率分布表示每个位置的相对重要性。
    然后计算这个分布与教师网络中相应通道分布的asymmetric KL距离,重点对齐前景显著区域。
  4. 优点
    相比于空间位置建模的方法,该通道距离有以下优势:
  • 更简单有效,提升显著且计算量小
  • 自动区分前后景,无需手动设计
  • 易于迁移到不同任务与网络结构
  1. 实验
    在多个数据集上验证了该方法的有效性,包括Cityscapes语义分割、VOC语义分割和COCO目标检测,均取得SOTA的蒸馏效果。

综上,该论文提出一种简单的通道级知识蒸馏方法,只需计算每个通道的概率距离,就可以有效地对齐前景特征,实现高效的密集预测网络蒸馏。

摘要

知识蒸馏(KD)已被证明是一种简单有效的训练密集预测模型的工具。轻量级学生网络是通过从大型教师网络转移过来的额外监督来训练的。以往大多数针对密集预测任务的KD变体是在空间域对齐来自学生和教师网络的特征图,通常是通过标准化每个空间位置上的激活值,并最小化点和/或成对的差异。与以往的方法不同,本文提出了将每个通道的特征图归一化来得到软概率图。通过简单地最小化两个网络的通道概率图之间的Kullback-Leibler (KL)发散,蒸馏过程更关注每个通道最显著的区域,这对于密集预测任务很有价值。
本文对几个密集预测任务进行了实验,包括语义分割和目标检测。 实验表明,本文提出的方法比现有的蒸馏方法性能好得多,并且在训练过程中需要更少的计算代价。 特别地,在COCO数据集上对MAP中的RetinaNet检测器(resnet50主干)进行了3.4%的改进,在Cityscapes数据集上对mIoU中的PSPNET(RESNet18主干)进行了5.81%的改进。

引言

稠密预测任务是计算机视觉中的一组基本任务,包括语义分割和目标检测。 这些任务要求在像素级学习复杂场景理解的强特征表示。 因此,最先进的模型通常需要很高的计算成本,使得它们难以部署到移动设备上。 因此,为密集预测任务设计的轻量级网络引起了人们的广泛关注。 此外,在以往的研究中,利用知识蒸馏(KD)对轻量级网络进行了有效的训练。 一个轻量级的网络是在一个大型教师网络的监督下训练的,可以实现更好的性能。 开创性的工作[Distilling the knowledge in a neural network,Fitnets: Hints for thin deep nets.]被提出并得到很好的研究,主要用于图像分类任务。
密集预测任务是以像素为单位的预测问题,比图像级分类更具挑战性。 以往的研究[ Structured knowledge distillation for dense prediction,Mimicking very efficient network for object detection]发现,将分类中的KD方法[Distilling the knowledge in a neural network, Fitnets]直接转移到语义分割中可能不会得到令人满意的结果。 严格对齐教师和学生网络之间的逐点分类分数或特征映射可能会实施过于严格的约束,并导致次优解。
逐点分类分数指的是语义分割任务中,对每个像素点得到的类别预测分数。例如对一个包含C个类别的图像进行语义分割,每个像素点都会得到一个C维向量,表示每个类别的预测分数,这个C维向量就是逐点分类分数。
最近的研究[Structured knowledge distillation for dense prediction,Structured knowledge distillation for semantic segmentation,Inter-region affinity distillation for road marking segmentation.]注重加强不同空间位置之间的相关性。 如下图所示,每个空间位置上的特征值(包括最终logits和内部特征映射)被规范化。 然后,通过聚合不同空间位置的子集来处理某些任务特定的关系,例如成对关系和类间关系。 这些方法在获取空间结构信息方面可能比点对齐更有效,提高了学生网络的性能。 然而,特征图中的每个空间位置对知识转移的贡献是相等的,这可能会从教师网络中带来冗余信息。
cwd 蒸馏,知识蒸馏,人工智能,深度学习,论文阅读
在本工作中,提出了一种新的基于通道的知识蒸馏方法,即对密集预测任务的每个通道中的激活映射进行归一化,如下图所示。然后,最小化归一化通道激活映射的不对称Kullback-Leibler (KL)发散,它转化为教师和学生网络之间的每个通道的分布。
cwd 蒸馏,知识蒸馏,人工智能,深度学习,论文阅读
最近的一些作品利用了通道中包含的知识。通道蒸馏[Channel distillation]提出将每个通道中的激活转移为一个聚合标量,这可能有助于图像级分类,但空间聚合丢失了所有的空间信息,不适合密集预测。其他的工作如MGD、channel exchangin和CSC都显示了通道信息的重要性。MGD将教师通道与学生通道进行匹配,并将其作为一个作业问题来解决。channel exchanging利用融合模块在不同模式的子网之间动态交换channel。
本文表明,对每个通道进行简单的归一化操作可以极大地改善基线空间蒸馏。 提出的通道式蒸馏简单,易于应用于各种任务和网络结构。 主要贡献总结如下:

  • 与现有的空间蒸馏方法不同,本文提出了一种适用于密集预测任务的新的通道蒸馏范式。方法简单而有效。
  • 在语义分割和目标检测方面,所提出的通道蒸馏方法明显优于现有的KD方法。
  • 本文在四个具有不同网络结构的基准数据集上对语义分割和目标检测任务进行了一致的改进,证明了本文的方法是通用的。 鉴于该方法的简单性和有效性,该方法可以作为密集预测任务的强基线KD方法。

related work

多数关于知识蒸馏的研究都集中在图像分类任务上。本文在这里主要研究将知识蒸馏技术有效地应用到密集预测任务的方法,而不仅仅是简单地将图像分类中的像素级蒸馏技术应用到密集预测任务中。
知识蒸馏用于语义分割:在文献中,一个局部相似度图被构建来最小化教师网络和学生网络之间分割边界信息的差异,其中使用从中心像素到8邻域像素的欧式距离作为知识传递。Liu等人提出了两种方法来捕获像素之间的结构信息,包括像素对之间的相似性以及被判别器捕获的整体相关性。文献注重传递同一语义类别的不同像素之间的类内特征变化,其中一组cosine距离被构建来传递结构知识。
知识蒸馏用于目标检测:许多方法发现区分前景和背景区域在目标检测任务的蒸馏中是非常重要的。有文献强制使学生网络中的特征图与教师网络中的特征图在RPN内通过L2损失相似,并发现直接应用像素级损失可能会损害目标检测的性能。 Wang等人提出只提取目标锚点位置附近的细粒度特征。Zhang和Ma生成了蒸馏的注意力掩码来区分前景和背景,并获得了很好的结果。
关于通道级知识的工作: 一些最近的工作也关注每个通道所包含的知识。文献计算每个通道的激活值均值,并对每个通道进行加权差异整合,这对图像分类任务可能有帮助,但是空间聚合会失去所有的空间信息,因此不适合密集预测任务。其他一些工作展示了通道级信息的重要性。总体来说,通道级别的知识蒸馏技术在密集预测任务中的研究还比较少。

本文方法

空间蒸馏

cwd 蒸馏,知识蒸馏,人工智能,深度学习,论文阅读

  • ATTENTION TRANSFER: 使用注意力掩码来聚合特征图,主要思路是高层语义信息集中在激活值较高的区域,所以可以用激活值的聚合(如求和)来表示关键区域,然后让学生网注意力区域逼近教师网。
  • PIXELWISE: 对最后输出层逐像素的分类结果进行对齐,让学生网每个像素的预测分布逼近教师网。
  • LOCAL AFFINITY: 计算每个像素与局部邻域(如8邻域)像素的关系,比如欧式距离,然后让学生网的局部亲和力矩阵逼近教师网,以传递局部结构信息。
  • PAIRWISE AFFINITY: 计算任意两个像素之间的相似度或关系,构建全局的亲和力矩阵,让学生网逼近教师网的亲和力矩阵,以传递全局结构信息。
  • 以上方法主要在最后输出层进行,也可以在中间特征层进行,目的是传递不同粒度的结构知识。

这些方法的简要概述如下。 注意力转移(AT)使用注意力掩模将特征映射压缩到单个通道中进行蒸馏。 像素级损失直接与点状类概率对齐。 局部亲和力由中心像素与其8个邻域像素之间的距离计算。 利用成对亲和力来传递像素对之间的相似性。 计算每个像素的特征与其对应的分类原型之间的相似性来传递结构知识。 [Structured knowledge distillation for dense prediction, Structured knowledge distillation for semantic segmentation]中的整体损失使用对抗方案来对齐来自两个网络的特征映射之间的高阶关系。 注意,后四项考虑了像素之间的相关性。 表1所示的现有KD方法都是空间蒸馏方法。 所有这些方法都将空间位置的N个通道激活值作为操作的特征向量。

Channel-wise Distillation

为了更好地利用每个渠道中的知识,本文建议在教师和学生网络之间柔和地调整相应渠道的激活。 为此,首先将通道的激活转换成概率分布,这样我们就可以概率距离度量来测量差异,例如KL散度。 不同通道的激活倾向于编码输入图像的场景类别的显著性。 此外,一个训练有素的语义分割教师网络显示了每个通道的明确类别特定掩码的激活图–这是预期的。 本文提出了一个新颖的通道式蒸馏范式来指导学生从训练有素的教师那里学习知识。
将教师和学生网络表示为T和S,来自T和S的特征图分别为YT和YS。 通道蒸馏损失可按一般形式表示:
cwd 蒸馏,知识蒸馏,人工智能,深度学习,论文阅读
在本例中,φ(·)用于将特征值转换为如下所示的概率分布:
cwd 蒸馏,知识蒸馏,人工智能,深度学习,论文阅读
其中c=1,2,…,c对通道进行索引; i是索引通道的空间位置。 T是一个超参数(温度)。 如果使用一个更大的t,概率会变得更软,这意味着本文对每个通道关注更宽的空间区域。 通过应用Softmax归一化,消除了大型网络和紧凑型网络之间大小尺度的影响。 正如[In defense of feature mimicking for knowledge distillation]所观察到的,这种归一化在KD中是有帮助的。 如果教师和学生之间的通道数目不匹配,则使用1×1卷积层来上采样学生网络的通道数目。 评估来自教师网络和学生网络的渠道分布之间的差异。 本文使用KL散度:
cwd 蒸馏,知识蒸馏,人工智能,深度学习,论文阅读
KL散度是一个非对称度量。 由上式可以看出,如果φ(yt c,i)很大,那么φ(ys c,i)应该和φ(yt c,i)一样大才能使KL散度最小。 否则,如果φ(yt c,i)很小,则KL散度对最小化φ(ys c,i)的关注较少。 因此,学生网络在前台显著区的特征分布趋于相似,而教师网络的背景区对应的特征对学习的影响较小。 本文假设KL的这种非对称性有利于密集预测任务的KD学习。

结论

在本文中,提出了一个新的通道蒸馏密集预测任务。 与以往的空间蒸馏方法不同,将每个通道的激活归一化为一个概率图。 然后,应用非对称KL散度来最小化师生网络之间的差异。 实验结果表明,在四个具有不同网络主干的公共基准数据集上,所提出的蒸馏方法在语义分割和目标检测方面都优于现有的蒸馏方法。
此外,本文的消融实验证明了通道蒸馏的效率和有效性,它可以进一步补充空间蒸馏方法。 本文希望所提出的简单有效的蒸馏方法可以作为一个强大的基线,为许多其他密集预测任务有效地训练紧凑网络,包括实例分割、深度估计等。文章来源地址https://www.toymoban.com/news/detail-793482.html

到了这里,关于[论文阅读]CWD——基于稠密预测的通道式知识蒸馏的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 【论文阅读】基于深度学习的时序预测——Non-stationary Transformers

    系列文章链接 论文一:2020 Informer:长时序数据预测 论文二:2021 Autoformer:长序列数据预测 论文三:2022 FEDformer:长序列数据预测 论文四:2022 Non-Stationary Transformers:非平稳性时序预测 论文五:2022 Pyraformer:基于金字塔图结构的时序预测 论文六:2023 Crossformer:多变量时序预

    2024年02月13日
    浏览(34)
  • 论文阅读:MotionNet基于鸟瞰图的自动驾驶联合感知和运动预测

    MotionNet:基于鸟瞰图的自动驾驶联合感知和运动预测 论文地址: MotionNet: Joint Perception and Motion Prediction for Autonomous Driving Based on Bird’s Eye View Maps | IEEE Conference Publication | IEEE Xplore 代码地址: GitHub - pxiangwu/MotionNet: CVPR 2020, \\\"MotionNet: Joint Perception and Motion Prediction for Autonomous Dri

    2024年02月19日
    浏览(39)
  • 论文阅读-面向机器学习的云工作负载预测模型的性能分析

    论文名称: Performance Analysis of Machine Learning Centered Workload Prediction Models for Cloud 由于异构服务类型和动态工作负载的高变异性和维度,资源使用的精确估计是一个复杂而具有挑战性的问题。在过去几年中,资源使用和流量的预测已受到研究界的广泛关注。许多基于机器学习的工

    2024年02月22日
    浏览(37)
  • 【论文阅读】EULER:通过可扩展时间链接预测检测网络横向移动(NDSS-2022)

    作者:乔治华盛顿大学-Isaiah J. King、H. Howie Huang 引用:King I J, Huang H H. Euler: Detecting Network Lateral Movement via Scalable Temporal Graph Link Prediction [C]. Proceedings 2022 Network and Distributed System Security Symposium, 2022. 原文地址:https://dl.acm.org/doi/pdf/10.1145/3588771 源码地址:https://github.com/iHeartGrap

    2024年02月14日
    浏览(30)
  • 经典文献阅读之--Orbeez-SLAM(单目稠密点云建图)

    对于现在的VSLAM而言,现在越来越多的工作开始聚焦于如何将深度学习结合到VSLAM当中,而最近的这个工作就给出了一个比较合适的方法。《Orbeez-SLAM: A Real-time Monocular Visual SLAM with ORB Features and NeRF-realized Mapping》这篇文章,可以轻松适应新的场景,而不需要预先训练,并实时为

    2024年02月13日
    浏览(31)
  • 扩散模型相关论文阅读,扩散模型和知识蒸馏的结合提升预测速度:Progressive Distillation for Fast Sampling of Diffusion Models

    谷歌research的成果,ICLR 2022 https://arxiv.org/abs/2202.00512 tenserflow官方开源代码: https://github.com/google-research/google-research/tree/master/diffusion_distillation pytorch非官方代码:https://github.com/lucidrains/imagen-pytorch 1.扩散模型虽然取得了很好的效果,但是预测速度慢。 2.作者提出了一种逐步蒸馏

    2024年02月16日
    浏览(30)
  • 【论文代码】基于隐蔽带宽的汽车控制网路鲁棒认证-到达时间间隔通道的Java实现(一)

    此篇文章是对原有代码的注释进行翻译,尝试对其架构和实现方式进行理解。 项目结构 Java实现代码 如图UML类图: 从图中明显可见,其代码组织方式,各个代码文件的继承和实现的关系。 以下内容围绕UML类图,分别进行阐述。 USBtin家族 USBtin是所有类的基类。 CANSender 和CA

    2024年01月24日
    浏览(42)
  • 论文阅读——基于深度学习智能垃圾分类

    B. Fu, S. Li, J. Wei, Q. Li, Q. Wang and J. Tu, “A Novel Intelligent Garbage Classification System Based on Deep Learning and an Embedded Linux System,” in IEEE Access, vol. 9, pp. 131134-131146, 2021, doi: 10.1109/ACCESS.2021.3114496. 垃圾数量的急剧增加和垃圾中物质的复杂多样性带来了严重的环境污染和资源浪费问题。回收

    2024年02月11日
    浏览(37)
  • 经典文献阅读之--OccNeRF(基于神经辐射场的自监督多相机占用预测)

    作为基于视觉感知的基本任务,3D占据预测重建了周围环境的3D结构。它为自动驾驶规划和导航提供了详细信息。然而,大多数现有方法严重依赖于激光雷达点云来生成占据地面真实性,而这在基于视觉的系统中是不可用的。之前我们介绍了《经典文献阅读之–RenderOcc(使用2

    2024年02月03日
    浏览(30)
  • 【论文阅读】基于深度学习的时序异常检测——TimesNet

    系列文章链接 参考数据集讲解:数据基础:多维时序数据集简介 论文一:2022 Anomaly Transformer:异常分数预测 论文二:2022 TransAD:异常分数预测 论文三:2023 TimesNet:基于卷积的多任务模型 论文链接:TimesNet.pdf 代码库链接:https://github.com/thuml/Time-Series-Library 项目介绍:https

    2024年02月13日
    浏览(43)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包