generative-model [ From GAN to WGAN ]

这篇具有很好参考价值的文章主要介绍了generative-model [ From GAN to WGAN ]。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

目录

Kullback–Leibler and Jensen–Shannon Divergence

Generative Adversarial Network (GAN)

What is the optimal value for D?

What is the global optimal?

What does the loss function represent?

Problems in GANs

Hard to achieve Nash equilibrium

Low dimensional supports

Vanishing gradient

Mode collapse

Lack of a proper evaluation metric

Improved GAN Training

Wasserstein GAN (WGAN)

What is Wasserstein distance?

Why Wasserstein is better than JS or KL divergence?

Use Wasserstein distance as GAN loss function

Example: Create New Pokemons!


生成对抗网络 (GAN) 在许多生成任务中显示出出色的结果,以复制现实世界的丰富内容,如图像、人类语言和音乐。它受到博弈论的启发:两个模型,一个生成器和一个批评者,在相互竞争的同时使彼此变得更强大。然而,训练GAN模型是相当具有挑战性的,因为人们面临着训练不稳定或无法收敛等问题。

在这里,我想解释生成对抗网络框架背后的数学原理,为什么很难训练,最后介绍一个旨在解决训练困难的GAN的修改版本。

Kullback–Leibler and Jensen–Shannon Divergence

在我们开始仔细研究 GAN 之前,让我们首先回顾一下量化两个概率分布之间相似性的指标。

generative-model [ From GAN to WGAN ],生成对抗网络,人工智能,神经网络

一些人认为(Huszar,2015)GANs取得巨大成功背后的一个原因是将损失函数从传统最大似然方法中的不对称KL散度转换为对称JS散度。

Generative Adversarial Network (GAN)

GAN由两个模型组成:

  • 鉴别器D:估计给定样本来自真实数据集的概率。它充当评论家,并经过优化以区分假样品和真实样本。
  • 发电机G:输出给定噪声变量输入的合成样本z (z带来潜在的产出多样性)。它被训练来捕获真实的数据分布,以便其生成样本可以尽可能真实,或者换句话说,可以欺骗鉴别器提供高概率。

generative-model [ From GAN to WGAN ],生成对抗网络,人工智能,神经网络

这两个模型在训练过程中相互竞争:

生成器G极力欺骗鉴别者,而批评者模特D正在努力不被骗。

两种模型之间这种有趣的零和博弈激励双方改进其功能。

generative-model [ From GAN to WGAN ],生成对抗网络,人工智能,神经网络

What is the optimal value for D?

generative-model [ From GAN to WGAN ],生成对抗网络,人工智能,神经网络

What is the global optimal?

generative-model [ From GAN to WGAN ],生成对抗网络,人工智能,神经网络

What does the loss function represent?

generative-model [ From GAN to WGAN ],生成对抗网络,人工智能,神经网络

Problems in GANs

尽管GAN在逼真的图像生成方面取得了巨大的成功,但培训并不容易;众所周知,该过程缓慢且不稳定。

Hard to achieve Nash equilibrium

generative-model [ From GAN to WGAN ],生成对抗网络,人工智能,神经网络

Low dimensional supports

generative-model [ From GAN to WGAN ],生成对抗网络,人工智能,神经网络

generative-model [ From GAN to WGAN ],生成对抗网络,人工智能,神经网络

 

Vanishing gradient

generative-model [ From GAN to WGAN ],生成对抗网络,人工智能,神经网络

因此,训练GAN面临两难境地

  • 如果鉴别器行为不佳,则生成器没有准确的反馈,损失函数无法代表现实。
  • 如果鉴别器做得很好,损失函数的梯度会下降到接近零,学习变得非常慢甚至卡住。

这种困境显然能够使GAN培训变得非常艰难。

Mode collapse

在训练期间,生成器可能会折叠到始终产生相同输出的设置。这是 GAN 的常见故障情况,通常称为模式崩溃。尽管生成器可能能够欺骗相应的鉴别器,但它无法学习表示复杂的真实世界数据分布,并且被困在一个种类极低的小空间中。

generative-model [ From GAN to WGAN ],生成对抗网络,人工智能,神经网络

Lack of a proper evaluation metric

生成对抗网络并不是天生就有良好的反对函数,可以通知我们训练进度。如果没有一个好的评估指标,就像在黑暗中工作一样。没有好的迹象可以告诉何时停止;没有很好的指标来比较多个模型的性能。

Improved GAN Training

前五种方法是实现GAN训练更快收敛的实用技术,在“改进训练GAN的技术”中提出。 最后两个在“面向训练生成对抗网络的原则方法”中提出,以解决不相交分布问题。

(1) Feature Matching

generative-model [ From GAN to WGAN ],生成对抗网络,人工智能,神经网络

(2) Minibatch Discrimination

generative-model [ From GAN to WGAN ],生成对抗网络,人工智能,神经网络

(3) Historical Averaging

generative-model [ From GAN to WGAN ],生成对抗网络,人工智能,神经网络

(4) One-sided Label Smoothing

馈送鉴别器时,不要提供 1 和 0 标签,而是使用 0.9 和 0.1 等软化值。它被证明可以减少网络的脆弱性。

(5) Virtual Batch Normalization (VBN)

每个数据样本都基于固定的数据批次(“参考批次”)进行规范化,而不是在其小批量中。参考批次在开始时选择一次,并在整个训练过程中保持不变。

(6) Adding Noises.

generative-model [ From GAN to WGAN ],生成对抗网络,人工智能,神经网络

(7) Use Better Metric of Distribution Similarity

generative-model [ From GAN to WGAN ],生成对抗网络,人工智能,神经网络

Wasserstein GAN (WGAN)

What is Wasserstein distance?

generative-model [ From GAN to WGAN ],生成对抗网络,人工智能,神经网络

generative-model [ From GAN to WGAN ],生成对抗网络,人工智能,神经网络

generative-model [ From GAN to WGAN ],生成对抗网络,人工智能,神经网络 

Why Wasserstein is better than JS or KL divergence?

generative-model [ From GAN to WGAN ],生成对抗网络,人工智能,神经网络

generative-model [ From GAN to WGAN ],生成对抗网络,人工智能,神经网络 

Use Wasserstein distance as GAN loss function

generative-model [ From GAN to WGAN ],生成对抗网络,人工智能,神经网络

Lipschitz continuity?

generative-model [ From GAN to WGAN ],生成对抗网络,人工智能,神经网络

 generative-model [ From GAN to WGAN ],生成对抗网络,人工智能,神经网络

与原始GAN算法相比,WGAN进行了以下更改:

  • 在注释器功能上的每次梯度更新后,将权重钳制到一个小的固定范围,[−c,c].
  • 使用从瓦瑟斯坦距离派生的新损失函数,不再对数。“鉴别器”模型不是直接的批评者,而是估计真实数据和生成数据分布之间的Wasserstein度量的助手。
  • 根据经验,作者向批评者推荐了RMSProp优化器,而不是像Adam这样可能导致模型训练不稳定的基于动量的优化器。关于这一点,我还没有看到明确的理论解释。

可悲的是,Wasserstein GAN并不完美。甚至原始WGAN论文的作者也提到“权重裁剪显然是强制执行Lipschitz约束的可怕方法”(哎呀!WGAN仍然存在不稳定的训练,权重裁剪后收敛缓慢(当裁剪窗口太大时)和梯度消失(当裁剪窗口太小时)。

Gulrajani 等人 2017 年讨论了一些改进,精确地用梯度惩罚代替了重量裁剪。我将把这个问题留到以后的帖子中。

 

Example: Create New Pokemons!

generative-model [ From GAN to WGAN ],生成对抗网络,人工智能,神经网络

笔记摘自Lil'Log

From GAN to WGANhttps://lilianweng.github.io/posts/2017-08-20-gan/文章来源地址https://www.toymoban.com/news/detail-686917.html

到了这里,关于generative-model [ From GAN to WGAN ]的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 深度学习7:生成对抗网络 – Generative Adversarial Networks | GAN

    生成对抗网络 – GAN 是最近2年很热门的一种无监督算法,他能生成出非常逼真的照片,图像甚至视频。我们手机里的照片处理软件中就会使用到它。 目录 生成对抗网络 GAN 的基本原理 大白话版本 非大白话版本 第一阶段:固定「判别器D」,训练「生成器G」 第二阶段:固定

    2024年02月11日
    浏览(56)
  • PyTorch深度学习实战(31)——生成对抗网络(Generative Adversarial Network, GAN)

    生成对抗网络 ( Generative Adversarial Networks , GAN ) 是一种由两个相互竞争的神经网络组成的深度学习模型,它由一个生成网络和一个判别网络组成,通过彼此之间的博弈来提高生成网络的性能。生成对抗网络使用神经网络生成与原始图像集非常相似的新图像,它在图像生成中应用

    2024年01月22日
    浏览(50)
  • AIGC 综述 2023:A History of Generative AI from GAN to ChatGPT

    论文下载:A Comprehensive Survey of AI-Generated Content (AIGC): A History of Generative AI from GAN to ChatGPT   注解: [1,2021] 表示第1条参考文献,发表时间为2021年 最近,ChatGPT,DALL-E-2[1,2021] 以及 Codex[2,2021]一起受到了社会的广泛关注。因此,许多人已经开始对相关的资源感兴趣,并正在寻求揭

    2024年02月11日
    浏览(58)
  • 数据生成 | MATLAB实现WGAN生成对抗网络数据生成

    生成效果 基本描述 1.WGAN生成对抗网络,数据生成,样本生成程序,MATLAB程序; 2.适用于MATLAB 2020版及以上版本; 3.基于Wasserstein生成对抗网络(Wasserstein Generative Adversarial Network,WGAN)的数据生成模型引入了梯度惩罚(Gradient Penalty)来改善训练的稳定性和生成样本的质量。W

    2024年02月12日
    浏览(36)
  • GAN(Generative Adversarial Network)作为深度学习领域中的一种生成模型,近年来在图像、音频等多种模态数据上取得了良好的效果。其核心思想就是通过博弈论中的对抗训练方式

    作者:禅与计算机程序设计艺术 GAN(Generative Adversarial Network)作为深度学习领域中的一种生成模型,近年来在图像、音频等多种模态数据上取得了良好的效果。其核心思想就是通过博弈论中的对抗训练方式,让两个网络(一个生成网络G和一个判别网络D)互相竞争,不断提升

    2024年02月07日
    浏览(48)
  • 【计算机视觉|生成对抗】生成对抗网络(GAN)

    本系列博文为深度学习/计算机视觉论文笔记,转载请注明出处 标题: Generative Adversarial Nets 链接:Generative Adversarial Nets (nips.cc) 我们提出了一个通过**对抗(adversarial)**过程估计生成模型的新框架,在其中我们同时训练两个模型: 一个生成模型G,捕获数据分布 一个判别模型

    2024年02月12日
    浏览(61)
  • 生成对抗网络 (GAN)

    生成对抗网络(Generative Adversarial Networks,GAN)是由Ian Goodfellow等人在2014年提出的一种深度学习模型。GAN由两部分组成:一个生成器(Generator)和一个判别器(Discriminator),它们通过对抗过程来训练,从而能够生成非常逼真的数据。 生成器(Generator) 生成器的任务是创建尽可

    2024年03月10日
    浏览(65)
  • 了解生成对抗网络 (GAN)

            Yann LeCun将其描述为“过去10年来机器学习中最有趣的想法”。当然,来自深度学习领域如此杰出的研究人员的赞美总是对我们谈论的主题的一个很好的广告!事实上,生成对抗网络(简称GAN)自2014年由Ian J. Goodfellow和共同作者在《

    2024年02月12日
    浏览(40)
  • 生成式对抗网络GAN

    Generative Adversarial Nets 由伊恩·古德费洛(Ian J.Goodfellow)等人于2014年发表在Conference on Neural Information Processing Systems (NeurIPS)上。NeurIPS是机器学习和计算神经科学领域的顶级国际学术会议之一。 图像生成: 论文地址:styleGAN styleGAN2 图像生成是生成模型的基本问题,GAN相对先前的

    2024年01月16日
    浏览(41)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包