论文阅读:AugGAN: Cross Domain Adaptation with GAN-based Data Augmentation

这篇具有很好参考价值的文章主要介绍了论文阅读:AugGAN: Cross Domain Adaptation with GAN-based Data Augmentation。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

Abstract

  • 基于GAN的图像转换方法存在两个缺陷:保留图像目标保持图像转换前后的一致性,这导致不能用它生成大量不同域的训练数据。
  • 论文提出了一种结构感知(Structure-aware)的图像转换网络(image-to-image translation network)。

Proposed Framework

  • 为了将图像正确地转换,我们需要编码信息包含:1)相互风格信息(Mutual style)2)结构信息
  • 在我们同时优化图像转化和语义分割的假设下,通过我们的参数共享策略,语义分割子任务作为图像转化的辅助正则化。
  • 框架具体过程可以参考上面的图示。
    论文阅读:AugGAN: Cross Domain Adaptation with GAN-based Data Augmentation,论文阅读,人工智能,GAN,ECCV2018,DA

结构感知编码和分割子任务

  • 文章认为通过训练分割子任务,可以将图像的结构化信息学习出来。

多任务网络的权重共享

  • 生成器解析网络之间共享权值,允许生成器充分利用上下文感知的特征向量。
  • 我们计算了两个网络反卷积层之间的差异,并以零矩阵为目标,通过均方误差将差建模为损失函数。给出了软分权损失函数的数学表达式:
    论文阅读:AugGAN: Cross Domain Adaptation with GAN-based Data Augmentation,论文阅读,人工智能,GAN,ECCV2018,DA

循环一致性

  • 循环一致性损失已被证明在防止网络在目标域内生成随机图像方面是相当有效的。
    论文阅读:AugGAN: Cross Domain Adaptation with GAN-based Data Augmentation,论文阅读,人工智能,GAN,ECCV2018,DA

对抗性学习

  • 网络包括两个生成对抗网络:
    论文阅读:AugGAN: Cross Domain Adaptation with GAN-based Data Augmentation,论文阅读,人工智能,GAN,ECCV2018,DA

实验

Synthetic Datasets

论文阅读:AugGAN: Cross Domain Adaptation with GAN-based Data Augmentation,论文阅读,人工智能,GAN,ECCV2018,DA

Reality Datasets

论文阅读:AugGAN: Cross Domain Adaptation with GAN-based Data Augmentation,论文阅读,人工智能,GAN,ECCV2018,DA

  • 从实验结果来看效果并不够好,但是这种学习方法还是值得借鉴的。

Reference

[1] Huang S W, Lin C T, Chen S P, et al. Auggan: Cross domain adaptation with gan-based data augmentation[C]//Proceedings of the European Conference on Computer Vision (ECCV). 2018: 718-731.文章来源地址https://www.toymoban.com/news/detail-731194.html

到了这里,关于论文阅读:AugGAN: Cross Domain Adaptation with GAN-based Data Augmentation的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • [论文解析] Diffusion Guided Domain Adaptation of Image Generators

    project link: https://styleganfusion.github.io/ In this paper, we show that the classifier-free guidance can be leveraged as a critic and enable generators to distill knowledge from large-scale text-to-image diffusion models. Generators can be efficiently shifted into new domains indicated by text prompts without access to groundtruth samples from target dom

    2024年02月16日
    浏览(31)
  • 迁移学习(COAL)《Generalized Domain Adaptation with Covariate and Label Shift CO-ALignment》

    论文标题:Generalized Domain Adaptation with Covariate and Label Shift CO-ALignment 论文作者:Shuhan Tan, Xingchao Peng, Kate Saenko 论文来源:ICLR 2020 论文地址:download  论文代码:download 视屏讲解:click 提出问题:标签偏移; 解决方法: 原型分类器模拟类特征分布,并使用 Minimax Entropy 实现条件

    2023年04月19日
    浏览(25)
  • Spectral Adversarial MixUp for Few-Shot Unsupervised Domain Adaptation论文速读

    域偏移是临床应用中的常见问题,其中训练图像(源域)和测试图像(目标域)处于不同的分布下。已经提出了无监督域适应 (UDA) 技术,以使在源域中训练的模型适应目标域。但是,这些方法需要来自目标域的大量图像进行模型训练。 本文提出了一种新的少样本无监督域

    2024年04月28日
    浏览(30)
  • 【读论文】SwinFusion: Cross-domain Long-range Learning for General Image Fusion via Swin Transformer

    论文:https://ieeexplore.ieee.org/document/9812535 如有侵权请联系博主 Swin Transformer 长期依赖性、全局信息 跨域融合 2022年发表在 IEEE/CAA JOURNAL OF AUTOMA TICA SINICA的一篇文章,该篇论文的作者仍然是我们熟悉的FusionGAN的作者。 简单来说,该篇论文提出了一个基于CNN和Swin Transformer来提取

    2024年02月16日
    浏览(28)
  • 【论文阅读】LoRA: Low-Rank Adaptation of Large Language Models

    code:GitHub - microsoft/LoRA: Code for loralib, an implementation of \\\"LoRA: Low-Rank Adaptation of Large Language Models\\\" 做法: 把预训练LLMs里面的参数权重给 冻结 ; 向transformer架构中的每一层, 注入 可训练的 rank decomposition matrices-(低)秩分解矩阵,从而可以显著地减少下游任务所需要的可训练参

    2024年02月03日
    浏览(34)
  • 论文《LoRA: Low-Rank Adaptation of Large Language Models》阅读

    今天带来的是由微软Edward Hu等人完成并发表在ICLR 2022上的论文《LoRA: Low-Rank Adaptation of Large Language Models》,论文提出了大模型 tuning 框架 LoRA ( Lo w- R ank A daptation)。 论文地址:https://openreview.net/pdf?id=nZeVKeeFYf9 附录下载地址:https://openreview.net/attachment?id=nZeVKeeFYf9name=supplementa

    2024年02月11日
    浏览(38)
  • [论文阅读笔记77]LoRA:Low-Rank Adaptation of Large Language Models

    题目 论文作者与单位 来源 年份 LoRA: Low-Rank Adaptation of Large Language Models microsoft International Conference on Learning Representations 2021 524 Citations 论文链接:https://arxiv.org/pdf/2106.09685.pdf 论文代码:https://github.com/microsoft/LoRA 研究主题 问题背景 核心方法流程 亮点 数据集 结论 论文类型 关

    2024年02月06日
    浏览(39)
  • Deep Frequency Filtering for Domain Generalization论文阅读笔记

    这是CVPR2023的一篇论文,讲的是在频域做domain generalization,找到频域中generalizable的分量enhance它,suppress那些影响generalization的分量 DG是一个研究模型泛化性的领域,尝试通过各自方法使得模型在未见过的测试集上有良好的泛化性。 intro部分指出,低频分量更好泛化,而高频分

    2024年02月07日
    浏览(29)
  • 【论文&代码阅读】LORA: LOW-RANK ADAPTATION OF LARGE LAN- GUAGE MODELS

    最近很多工作好像都绕不开lora,无论是sd还是llm.... 问题:大模型重新训练所有模型参数的完全微调变得不太可行。 lora在做什么 我们提出了低秩自适应,即LoRA,它冻结预先训练的模型权重,并将可训练的秩分解矩阵注入Transformer架构的每一层 为什么work? 学习过的参数化模

    2024年02月10日
    浏览(31)
  • progressive random convolutions for single domain generalization论文阅读过程

    采用的是吴恩达老师的论文阅读方法。 Multiple passes[多次通读] Read the title/abstract/figures Title Progressive 采用渐进的方式,逐步改进模型性能或逐步引入新的技术。渐进性通常表示逐步迭代和改进。 Progressively stack randconv block【重复迭代】--block(变形偏移+仿射变换)【保留语义并

    2024年02月04日
    浏览(44)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包