INFOBATCH: LOSSLESS TRAINING SPEED UP BY UNBIASED DYNAMIC DATA PRUNING 和Masked Image denoised

这篇具有很好参考价值的文章主要介绍了INFOBATCH: LOSSLESS TRAINING SPEED UP BY UNBIASED DYNAMIC DATA PRUNING 和Masked Image denoised。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

INFOBATCH: LOSSLESS TRAINING SPEED UP BY UNBIASED DYNAMIC DATA PRUNING

即插即用的动态数据裁剪,加速网络训练.
ICLR 2024 Oral | InfoBatch,三行代码,无损加速,即插即用!
论文题目:
InfoBatch: Lossless Training Speed Up by Unbiased Dynamic Data Pruning
论文地址:https://arxiv.org/abs/2303.04947
代码地址:https://github.com/henryqin1997/InfoBatch

1.概述

加速训练一个比较直接的方法是降低数据集规模。如何降低数据集规避,应该剔除哪些数据,一般认为剔除那些 loss(或者其他一些指标score)较小的,因为这样的样本数据对模型训练梯度下降影响较小。

一种方式是 static prune,就是训练一些epoch后,根据损失值或者其他指标 设定 阈值,裁剪 那些小于 阈值的样本。

一种方式是 dynamic prune, 就是每隔一些epoch 根据指标排序,然后进行裁剪,整个训练过程中多次裁剪。

Meanwhile, directly pruning data may lead to a biased gradient estimation as illustrated in Fig. 1a, which affects the convergence result. This is a crucial factor that limits their performance, especially under a high pruning ratio
就是无论是静态和动态prune 数据都有一个问题,就是确实可以加速训练,但是直接剪枝数据可能导致梯度估计偏倚,如下图a所示,影响收敛结果。这是限制其性能的关键因素,特别是在高剪枝比下。
infobatch,剪枝,机器学习,人工智能

因此作者提出infobatch方法,如图1b所示。

2.原理

infobatch,剪枝,机器学习,人工智能

主要包括 soft pruning , experctation rescaling 两个步骤。

详细步骤:
每个epoch或者若干个epoch训练后需要重新裁剪数据的时候
0. 第一次裁剪 计算整个数据集的 平均损失 loss_mean,按照直接 裁剪掉 loss较小的一部分进行裁剪。(硬裁剪)

  1. 之后的裁剪, 每次也要计算整个数据集的 平均损失 loss_mean(被裁剪的样本(未被训练的样本)用之前的loss,未被裁剪的sample用训练更新后的loss)。这一步讲了如何更新 每个样本的损失并计算loss_mean, loss_mean其实就是自适应阈值。

  2. 然后小于 loss_mean的数据 按照一定的概率 r 进行prune

  3. 样本减少,整个数据集的 梯度会发生变化,造成与原数据集 梯度期望不一致。解决这个问题,就是 将 小于loss_mean的数据样本 梯度进行rescale, 1/(1-r) times.

  4. 在最后15%的epoch采用full dataset进行训练

3.实验结果

infobatch,剪枝,机器学习,人工智能

对于infobatch方法,prune比例约等于节省的时间比例,因为求loss_mean的时间开销很小:
infobatch,剪枝,机器学习,人工智能

4.三行代码

https://github.com/NUS-HPC-AI-Lab/InfoBatch
infobatch,剪枝,机器学习,人工智能

Masked Image Training for Generalizable Deep Image Denoising

1.概述

这篇文章很有意思,假如你开发一个denoise model, 但是你的数据集只是一些特定场景的特定的noise type, noise level, 你是希望model能够处理更多的场景还是能够兼顾更多的noise type(noise lvel)。

兼顾更多的场景意味着,即使你的训练集和实际使用的数据 场景差别很大,model也能有效。
兼顾更多的noise type或noise level意味着,即使你的训练集和实际使用的数据 noise type差别很大,model也能有效。

作者认为现在的denoise model是对 特定的noise type, noise level有效,即使换了场景,noise type, noise level只要不变,model仍然有效。

作者提出的denoise model是对 希望对特定的场景有效,无论什么样的noise type, noise level, 只要训练的场景和 实际使用的场景一致,那么model仍然有效。

下图可以很好的说明:
换个噪声type, swir就失效了
infobatch,剪枝,机器学习,人工智能

下图说明,换个场景(训练场景和实际使用场景有差别),本文提出的方法会失效:
infobatch,剪枝,机器学习,人工智能

作者提出的方法是利用mask, 为了更好的训练model,使model能够学习到图像语义内容,而不是noise.
infobatch,剪枝,机器学习,人工智能

2.原理

作者根据基于swir transformer结构 引入 input mask 和 attention mask
infobatch,剪枝,机器学习,人工智能

最后训练的model可以兼容更多的 noise type, noise level.
本人不了解swintransformer的结构,关于网络结构这里请参考:
https://github.com/haoyuc/MaskedDenoising
https://zhuanlan.zhihu.com/p/658523907文章来源地址https://www.toymoban.com/news/detail-830152.html

到了这里,关于INFOBATCH: LOSSLESS TRAINING SPEED UP BY UNBIASED DYNAMIC DATA PRUNING 和Masked Image denoised的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • ChatGPT1论文解读《Improving Language Understanding by Generative Pre-Training》

    以下是我阅读完整篇论文做的个人总结,基本包含了ChatGPT1设计的完整框架思路,可以仅看【论文总结】章节。 在GPT1实现的核心架构中,包含两个阶段。 第一阶段 在 第一阶段 基于一个包含 7000本书籍 内容的海量 未标注文本数据集 进行无监督预训练,该阶段引入了一种 T

    2024年02月05日
    浏览(57)
  • WARNING:tensorflow:Your input ran out of data; interrupting training. 解决方法

    WARNING:tensorflow:Your input ran out of data; interrupting training. Make sure that your dataset or generator can generate at least steps_per_epoch * epochs batches (in this case, 13800 batches). You may need to use the repeat() function when building your dataset. 根据报错信息,问题似乎出现在数据集生成器上。可以使用数据集的rep

    2024年02月07日
    浏览(84)
  • 论文笔记--Exploiting Asymmetry for Synthetic Training Data Generation: SynthIE and the Case of Informati

    标题:Exploiting Asymmetry for Synthetic Training Data Generation: SynthIE and the Case of Information Extraction 作者:Martin Josifoski, Marija Sakota, Maxime Peyrard, Robert West 日期:2023 期刊:arxiv preprint   文章提出了一种利用LLM反向生成数据集的方法,并在此基础上提出了SynthIE模型,模型在信息抽取领域

    2024年02月03日
    浏览(72)
  • “大数据处理”的现状 Scaling up and out: Towards an efficient processing of big Data

    作者:禅与计算机程序设计艺术 Hadoop 是 Apache 基金会于 2007 年推出的开源分布式计算框架。它是一个通用计算平台,可用于存储、处理和分析大量的数据集。它是一个分布式文件系统(HDFS),一个资源管理器(YARN),和一些常用的组件如 MapReduce、Hive 和 Pig。在数据量达到海

    2024年02月08日
    浏览(48)
  • 【安全】被黑客要挟的一天,All your data is a backed up. You must pay 0.25BTC

    【 写在前面 】All your data is a backed up. You must pay 0.25 BTC to xxxxxx 48 hours for recover it. After 48 hours expiration we will sell all your data on dark markets and the database dump will be dropped from our server! 被黑客盯上的一天,之前自己搭建了一套数据库,今天一看数据表不见了,居然多了一份这个表Z_R

    2024年02月15日
    浏览(48)
  • Leveraging Unlabeled Data for Crowd Counting by Learning to Rank

    无标签人群技术,作者引入了一种排名。 利用的是一个图的人群数量一定小于等于包含这个图的图 作者提出了一种自监督任务,利用的是一个图的人群数量一定小于等于包含这个图的图 流程: 1.以图像中心为中心,划分一个 1 / r 1/r 1/ r 图像大小的矩形(但是这里没写是面积

    2024年01月23日
    浏览(44)
  • 【论文笔记】ResRep: Lossless CNN Pruning via Decoupling Remembering and Forgetting

    提出了ResRep,一种无损通道修剪的新方法,它通过减少卷积层的宽度(输出通道数)来缩小CNN的尺寸。 建议将CNN重新参数化为 记忆部分 和 遗忘部分 ,前者学习保持性能,后者学习修剪。通过对前者使用常规 SGD 进行训练,对后者使用带有惩罚梯度的新颖更新规则进行训练,

    2024年04月13日
    浏览(39)
  • 【检测与估计理论(Detection and Estimation Theory)】二、最小方差无偏估计(Minimum Variance Unbiased Estimation)

    在本章中,我们想要找到好的未知参数的估计量。我们想在期望为真实值的估计量中找到一个最稳定的估计量,这个估计量所产生的估计值在大多数情况下是接近真实值的。本章将主要讨论最小方差无偏估计的概念,具体求解方法将在随后的章节中介绍。 如果一个估计量的期

    2024年01月16日
    浏览(37)
  • 游戏窗口无损缩小/放大工具 Lossless Scaling V2.2.5 官方中文 免安装【1.25M】

    无损缩放可让您使用最先进的空间缩放算法、锐化算法和机器学习将窗口游戏升级到全屏。 海洋空间规划 AMD FidelityFX 超分辨率 (AMD FSR) 英伟达图像缩放 (NIS) 整数缩放 最近的邻居 xBR 动漫4K 夏普双线性 双立方 CAS 如果您无法以本机屏幕分辨率(GPU 限制)运行现代游戏并

    2024年02月05日
    浏览(45)
  • 无涯教程-jQuery - hide( speed, callback)方法函数

    hide(speed,[callback])方法使用优美的动画隐藏所有匹配的元素,并在完成后触发可选的回调。 这是此方法使用的所有参数的描述- speed      -  代表三个预定义速度(\\\"slow\\\",\\\"normal\\\"或\\\"fast\\\")之一或运行动画的毫秒数(如1000)的字符串)。 callback -  这是可选参数,表示动画制作完成后要

    2024年02月15日
    浏览(41)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包