FixMatch+DST论文阅读笔记(待复现)

这篇具有很好参考价值的文章主要介绍了FixMatch+DST论文阅读笔记(待复现)。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

FixMatch: Simplifying Semi-Supervised Learning with Consistency and Confidence


论文标题:FixMatch: Simplifying Semi-Supervised Learning with Consistency and Confidence
论文作者:Kihyuk Sohn, David Berthelot, Chun-Liang Li, Zizhao Zhang, Nicholas Carlini, Ekin D. Cubuk, Alex Kurakin, Han Zhang, Colin Raffel
论文来源:NeurIPS 2020
代码来源:Code


介绍

半监督学习有效的利用没有标注的数据,从而提高模型的精度。这篇论文,我们将有效的结合两种常见的半监督学习方法:一致性正规化技术和伪标签技术。我们的算法叫做FixMatch,首先把没有标签的图片进行轻微的数据增强,用模型对怎强后的图片进行预测,从而生成为标签。对于每张没有标签的图片,当模型的预测得分高于一定的阈值时,伪标签才起作用。模型预测伪标签的同时,将同样的图片进行强烈的数据增强送入网络,计算损失。虽然方法看起来简单,但是FixMatch在从多的半监督学习方法中达到了最好的效果。仅用了250张标注数据,在CIFAR-10数据集上达到了94.93%的准确率;仅用了40张标注数据,在CIFAR-10数据集上达到了88.61%的准确率(每个类别只取了4张标注数据);因为作者做了很多消融实验,说明不同因素对半监督学习效果的影响,最终FixMatch这种半监督学习方法获得成功。

FixMatch

FixMatch+DST论文阅读笔记(待复现)
整个过程如上图所示:首先,图片进行轻微的数据增强,然后输入网络进行预测,生成one-hot编码的伪标签。然后,把同样的图片进行强烈的数据增强,得到预测特征。如果轻微数据增强的预测得分大于一定的阈值,那么生成的伪标签就和强烈数据增强的特征计算交叉熵损失。

具体步骤

符号定义
FixMatch+DST论文阅读笔记(待复现)
FixMatch+DST论文阅读笔记(待复现)

定义\(p_m(y|x)\)为模型在输入\(x\)下的类别分布预测。
定义两个概率分布\(p\)\(q\)之间的交叉熵损失为\(H(p,q)\),用来衡量两个概率分布的差异。
定义强弱两种增强的操作为\(\mathcal{A}(·)\)\(\alpha(·)\)

方法
FixMatch的损失函数有两部分组成:有标签的图片用有监督的损失\(\mathcal{l}_s\),没有标签的图片用无监督的损失\(\mathcal{l}_u\), 两个损失都是标准的交叉熵损失:
FixMatch+DST论文阅读笔记(待复现)
FixMatch+DST论文阅读笔记(待复现)
对于没有标签图片的处理:首先得到伪标签,如果伪标签的得分大于一定的阈值(τ,论文中的阈值取0.95),那么,就用该伪标签和强烈数据增强获得的特征计算交叉熵损失。

最后,FixMatch的最终损失为:
FixMatch+DST论文阅读笔记(待复现)


Debiased Self-Training for Semi-Supervised Learning


论文标题:Debiased Self-Training for Semi-Supervised Learning
论文作者:Baixu Chen, Junguang Jiang, Ximei Wang, Pengfei Wan, Jianmin Wang, Mingsheng Long
论文来源:NIPS 2022 Oral
代码来源:Code


引入

尽管自训练在半监督学习的基准数据集上取得了很好的性能,但我们发现,目前最先进的自训练算法(FixMatch)仍然存在两个主要问题:
训练不稳定

FixMatch+DST论文阅读笔记(待复现)

该图展示了使用典型的自训练方法FixMatch训练过程中,模型准确率出现了明显的震荡。

马太效应
FixMatch+DST论文阅读笔记(待复现)

该图展示了使用FixMatch算法训练后,准确率较高的类别会取得更高的准确率,而那些学习的不佳的类别的准确率可能会继续下降甚至接近0

以上两个问题是由伪标签函数与目标标签函数之间的偏差引起的。使用有偏的、不可靠的伪标签训练模型有可能会导致错误累积,并最终造成模型性能的波动。而对于那些表现不佳的类别,自训练偏差更严重,并且会随着自训练的进行而进一步恶化,最终导致马太效应。

为了解决上述不足,我们系统地分析了半监督学习中的自训练偏差问题。基于分析,我们提出了DST,一种减轻自训练偏差并提高训练稳定性和跨类性能平衡的新方法。

问题分析

首先,我们对自训练中的偏差来源进行分析。自训练的偏差是指学习到的决策超平面与真实决策超平面之间的偏差。它可以近似地通过每个类别的准确度来衡量,因为决策超平面的偏差越大,相关类别的准确度就越低。
FixMatch+DST论文阅读笔记(待复现)

通过分析不同训练条件下各类别的准确率,我们有以下发现:

标注数据的采样将在很大程度上影响自训练偏差。当标注数据的采样不同时,同一类别的准确率可能很高也可能很低。原因是不同数据点与真实决策超平面之间的距离并不相同,一些数据点更近,而另一些则相对远离。当标注数据较少时,每个类别采样到的数据与真实决策超平面之间的距离可能会有很大差异,因此学习到的决策超平面会偏向某些类别:
FixMatch+DST论文阅读笔记(待复现)

模型的预训练方法也会影响自训练偏差。即使预训练数据集和下游标记数据集都是相同的,不同的预训练方法会导致不同的类别偏向。一个可能的原因是不同的预训练模型学习的表示关注数据的不同方面。因此,相同的数据也可能在不同预训练模型的特征表示上与决策超平面有不同的距离:
FixMatch+DST论文阅读笔记(待复现)

使用伪标签进行训练反而增大了自训练偏差。在使用伪标签(比如FixMatch))进行训练后,不同类别的性能差距显著扩大,而某些类别的准确率从 60% 提高到 80%,某些类别的准确率从 15% 下降到 0%。这是因为对于那些网络学习的较好的类别,伪标签几乎是准确的,因此将它们用于训练可以进一步减少偏差。但是对于很多网络学习较差的类别,伪标签是不可靠的,常见的伪标签训练机制会进一步增加偏差,并且难以在后续训练中被纠正。
FixMatch+DST论文阅读笔记(待复现)

基于以上观察,我们将自训练引起的偏差分为两类:

  • 数据偏差(Data Bias):半监督学习任务中固有的偏差,例如数据的采样和预训练特征表示导致的偏差。
  • 训练偏差(Training Bias):由自训练策略导致的偏差扩大。

接下来我们将介绍如何减少自训练中的训练偏差和数据偏差。

方法设计

FixMatch+DST论文阅读笔记(待复现)

减少训练偏差—解耦伪标签生成与利用

FixMatch的训练偏差来源于使用自身生成的伪标签进行训练的机制。为了减少这种偏差,一些方法转而通过更好的教师模型生成伪标签,例如平均老师算法(Mean Teacher)使用当前模型的滑动平均作为教师模型。然而,这种方法中生成伪标签的教师模型和利用伪标签的学生模型之间仍然存在联系,学生模型的决策超平面仍然可能会被错误的伪标签函数所影响 。因此,在自训练过程中仍然存在训练偏差。

为了消除使用伪标签时的训练偏差,我们只使用有标注数据 \(\mathcal{L}\) 中准确的标签,而不再使用无标注数据 \(\mathcal{U}\) 中的任何伪标签(它们很可能是不可靠的)来优化分类器头 \(h\) 。为了防止深度模型过度拟合少数有标注样本,我们仍然使用伪标签进行训练,但只是为了学习更好的特征表示。

如上图的(d)所示,引入了一个代理分类器头\(h_{pseudo}\),它直接和特征提取器\(\psi\)相连,并且只使用来自\(\mathcal{U}\)的伪标签进行优化。完整的优化目标是
FixMatch+DST论文阅读笔记(待复现)

其中伪标签由分类器头\(h\)生成,但通过一个完全独立的代理分类器头\(h_{pseudo}\)被利用。这种解耦机制可以有效地消除在分类器头\(h\)上进行自训练所导致的偏差累积。代理分类器头\(h_{pseudo}\)只负责在训练期间向特征提取器\(\psi\)进行梯度的反向传播,在推理过程中其会被丢弃,因此不会引入额外的计算负担。

减少数据偏差—估计最坏训练偏差
前一小节提出了一种消除训练偏差的解决方案,但伪标签函数\(\hat f\)中仍然存在数据偏差。

FixMatch+DST论文阅读笔记(待复现)

如图(a)所示,由于数据偏差的存在,每个类别的有标注样本到表示空间中的决策超平面的距离不同,这导致学习到的超平面和真正的决策超平面之间存在偏差,特别是有标注样本的数量非常少时。因此,伪标签函数\(\hat f\)很可能会在靠近这些有偏决策超平面的未标记数据点上生成不正确的伪标签。而我们现在的目标是优化特征表示以减少数据偏差,最终提高伪标签的质量。

由于我们没有\(\mathcal{U}\)上的标注,我们不能直接测量从而减少数据偏差。然而,训练偏差与数据偏差有一些相关性。在上一节中,分类器头\(h\)仅使用准确的有标注数据进行优化,这是因为使用不正确的伪标签进行优化会将学习的超平面推向偏差更大的方向并导致训练偏差。因此,训练偏差可以认为是在伪标签使用不当时数据偏差的累积,这是依赖于训练算法的。而所有训练方法中能达到的最差训练偏差可以更好地衡量数据偏差的程度。通过减少最差训练偏差,我们可以间接地降低数据偏差。具体来说,最差的训练偏差对应于通过伪标记学习到的最差的分类器头\(h^{’}\)\(h^{’}\)对所有有标注的样本\(\mathcal{L}\)预测正确,同时在无标注的数据\(\mathcal{U}\)上尽可能地犯错:
FixMatch+DST论文阅读笔记(待复现)

其中\(h^{’}\)在无标注数据上的错误是通过其与当前伪标签函数\(\hat f\)的差异来估计的。该公式刻画了未来在当前特征提取器\(\psi\)上使用伪标签训练时可能学习到的分类器头\(h\)的最坏情况。图(c)可视化最差超平面,其尽可能地与目前所学习到的超平面远离,同时保证所有有标注样本都被正确分类。

注意到\(h_worst\)依赖于\(\psi\)生成的特征表示,因此我们可以优化特征提取器\(\psi\)以减少最坏情况偏差:
FixMatch+DST论文阅读笔记(待复现)
该公式鼓励特征提取器产生使得最差的超平面也能正确区分无标注样本的特征,从而在特征表示层面减少数据偏差。

最终目标函数
FixMatch+DST论文阅读笔记(待复现)

实验

FixMatch+DST论文阅读笔记(待复现)

FixMatch+DST论文阅读笔记(待复现)文章来源地址https://www.toymoban.com/news/detail-709932.html

到了这里,关于FixMatch+DST论文阅读笔记(待复现)的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • Deep learning of free boundary and Stefan problems论文阅读复现

    在这项工作中,作者提出了一个基于物理信息神经网络的多网络模型,来解决一类一般的正和逆自由边界问题,称为Stefan问题。具体地说,用两个深度神经网络来近似未知解以及任何移动边界。作者提供了三个案例研究(一维一相Stefan问题,一维二相Stefan问题,二维一相Ste

    2024年02月08日
    浏览(49)
  • 【论文阅读+复现】AniPortrait: Audio-Driven Synthesis of Photorealistic Portrait Animation

    AniPortrait:音频驱动的逼真肖像动画合成。 code:Zejun-Yang/AniPortrait: AniPortrait: Audio-Driven Synthesis of Photorealistic Portrait Animation (github.com) paper:[2403.17694] AniPortrait: Audio-Driven Synthesis of Photorealistic Portrait Animation (arxiv.org) 出处:腾讯,2024.3.26 总结: AniPortrait,一个由音频和参考肖像

    2024年04月16日
    浏览(63)
  • 【车间调度】论文阅读复现——effective neighbourhood functions for the flexible job shop problem

    在复现另一篇文献An effective hybrid genetic algorithm and tabu search for flexible job shop scheduling problem的算法时,发现其中的局部搜索使用了k-insertion的邻域动作,于是找到出处:effective neighbourhood functions for the flexible job shop problem。这篇文章主要是对k-insertion的一些性质的解释与证明,我

    2024年02月03日
    浏览(58)
  • 《VM-UNet: Vision Mamba UNet for Medical Image Segmentation》论文阅读及代码复现

    论文地址:[2402.02491] VM-UNet: Vision Mamba UNet for Medical Image Segmentation (arxiv.org) 代码地址:JCruan519/VM-UNet: (ARXIV24) This is the official code repository for \\\"VM-UNet: Vision Mamba UNet for Medical Image Segmentation\\\". (github.com) 摘要 : 在医学图像分割领域,基于细胞神经网络和基于变换器的模型都得到了广

    2024年03月24日
    浏览(63)
  • 【论文阅读+复现】SparseCtrl: Adding Sparse Controls to Text-to-Video Diffusion Models

    SparseCtrl:在文本到视频扩散模型中添加稀疏控制。 (AnimateDiff V3,官方版AnimateDiff+ControlNet,效果很丝滑) code:GitHub - guoyww/AnimateDiff: Official implementation of AnimateDiff. paper:https://arxiv.org/abs/2311.16933 目录 文章 1 介绍 2 背景 3 方法 4 实验 5 结论 复现 1 问题 2 结果 1 介绍 动机:不断

    2024年02月03日
    浏览(44)
  • 论文阅读:Vary论文阅读笔记

    论文:Vary: Scaling up the Vision Vocabulary for Large Vision-Language Models Paper | Github | Demo 许久不精读论文了,内心一直想找个专门的时间来细细品读自己感兴趣的论文。现在想来,无异于是自己骗自己了,因为根本就不存在那个专门的时间。所以改变最好的时候就是现在。 因为自己一

    2024年01月19日
    浏览(46)
  • 【FedAvg论文笔记】&【代码复现】

    目录 一、FedAvg原始论文笔记 1、联邦优化问题:  2、联邦平均算法: FedSGD算法: FedAvg算法: 实验结果: 3、代码解释  3.1、main_fed.py主函数 3.2、Fed.py: 3.3、Nets.py:模型定义 3.4、option.py超参数设置 3.5、sampling.py: 3.6、update.py :局部更新 3.7、main_nn.py对照组 普通的nn 联邦平均算法

    2024年02月01日
    浏览(42)
  • 论文阅读及复现——《CT_ICP: Real-time Elastic LiDAR Odometry with Loop Closure》

    论文网址:https://arxiv.org/abs/2109.12979 源码网址:https://github.com/jedeschaud/ct_icp 复现过程:https://blog.csdn.net/qq_44164791/article/details/132188049?spm=1001.2014.3001.5502 提出了一个具有扫 描内姿态连续性 和 扫描间不连续性 的新型弹性激光雷达里程计 使用稀疏体素结构存储稠密点云的局部地

    2024年02月11日
    浏览(38)
  • 论文阅读:Vary-toy论文阅读笔记

    论文:Small Language Model Meets with Reinforced Vision Vocabulary Paper | Github | Demo 说来也巧,之前在写论文阅读:Vary论文阅读笔记文章时,正好看到了Vary-toy刚刚发布。 这次,咱也是站在了时代的前沿,这不赶紧先睹为快。让我看看相比于Vary,Vary-toy做了哪些改进? 从整体结构来看,仍

    2024年01月25日
    浏览(60)
  • [论文阅读笔记18] DiffusionDet论文笔记与代码解读

    扩散模型近期在图像生成领域很火, 没想到很快就被用在了检测上. 打算对这篇论文做一个笔记. 论文地址: 论文 代码: 代码 首先介绍什么是扩散模型. 我们考虑生成任务, 即encoder-decoder形式的模型, encoder提取输入的抽象信息, 并尝试在decoder中恢复出来. 扩散模型就是这一类中的

    2023年04月08日
    浏览(67)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包