论文笔记DIGRESS: DISCRETE DENOISING DIFFUSION FORGRAPH GENERATION

这篇具有很好参考价值的文章主要介绍了论文笔记DIGRESS: DISCRETE DENOISING DIFFUSION FORGRAPH GENERATION。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

        一些扩散模型的文章:

https://zhuanlan.zhihu.com/p/640138441

https://blog.csdn.net/qq_43505867/article/details/130983606

https://blog.csdn.net/qq_51392112/article/details/129326444

目录

Abstract

1 Introduction

2 Diffusion models

3 DISCRETE DENOISING DIFFUSION FOR GRAPH GENERATION

3.1迭代过程与逆去噪迭代

3.2去噪网络参数化

3.3等效特性

4利用MARGINAL PROBABILITIES、STRUCTURAL FEATURES改进DiGress

4.1 CHOICE OF THE NOISE MODEL

4.2 STRUCTURAL FEATURES AUGMENTATION

5 CONDITIONAL GENERATION条件生成

EXPERIMENTS

GENERAL GRAPH GENERATION

代码

Pytorch Lightning库

论文代码

PredefinedNoiseScheduleDiscrete类

apply_noise

sample_p_zs_given_zt

compute_batched_over0_posterior_distribution后验分布计算

forward

Abstract

        DiGress是用于生成具有分类节点和边属性的离散去噪扩散模型,通过增删边、改变类别逐步编辑有噪声的图形。训练图Transformer网络恢复此过程,将图的分布学习问题简化为节点和边分类任务。本文通过引入马尔科夫噪声模型(在扩散时保留边缘分布的节点和边类型以及结合辅助图论特征)进一步提高样本质量。本文还提出一个训练图级特征生成的程序。

1 Introduction

        去噪扩散模型对扩散轨迹降噪,通过对噪声采样和递归降噪产生新样本。扩散模型在图像和视频上优于其他方法。其成功应用提高了构建图生成模型的可能,但是由于其无序性和稀疏性,生成图具有挑战性。连续扩散会使去噪网络难以捕获数据的结构属性。本文对DiGress提出了几个算法上的增强,包括使用在扩散时保留边缘分布的节点和边类型的噪声模型,介绍了一种新的基于图级属性的图生成指导方法,用辅助结构和光谱特征来增强我们的去噪网络的输入。从噪声图导出的这些特征使用噪声模型的离散性质,与基于高斯的模型相比保留了稀疏的噪声图。这些改进增强了DiGress在各种图形生成任务上的性能。

2 Diffusion models

        去噪扩散模型包括两个主要部分:噪声模型、去噪神经网络。

        噪声模型q逐渐破环数据点x以创建一系列噪声数据点。它有马尔科夫结构:。

        去噪网络从预测进行反转。噪声从先验分布中被采样,然后通过去噪网络的迭代应用反转。

        扩散模型需满足:

1.分布有closed-form公式以允许在不同时间步长上并行训练。

2.后验应有closed-form表达式,这样x可以作为神经网络的目标。

3.极限分布不依赖x,以将其作为先验分布推理

        当使用高斯噪声可满足以上性质。当需要对分类数据建模时,可通过将数据嵌入到具有类别的独热编码的连续空间中使用高斯噪声。但是高斯噪声是图的差的噪声模型,因为破坏稀疏性以及连通性等图论概念。因此离散扩散更适合图生成任务。

        噪声由转换矩阵表示,表示从状态i跳到状态j的概率:

        去噪网络从学习干净图。预测的分布用组合以计算以及采样一个离散的。

3 DISCRETE DENOISING DIFFUSION FOR GRAPH GENERATION

        模型处理具有分类节点和边属性的图,分别由空间X和E表示,基数为a和b。

3.1迭代过程与逆去噪迭代

        模型分别对每个节点和边特征进行扩散。转移概率:,。添加噪声产生即从分类分布中对每个节点和边类型进行采样。

        DiGress第二个部分是由参数化的去噪神经网络。它以噪声图为输入预测干净图,通过每个节点和边的预测概率及真实图优化交叉熵损失。使用网络预测估计反向扩散迭代采样新图。建模分布为节点和边上的乘积:

        这个分布用于对离散进行采样,将在下一个时间步作为去噪网络的输入。

3.2去噪网络参数化

        去噪网络以噪声图为输入,输出表示干净图上的预测分布张量。使用Transformer网络操作图级特征y,注意力机制是边预测的自然模型。它首先使用自关注更新节点特征,使用FiLM层合并边特征和全局特征,使用未归一化的注意力分数更新边特征,使用池化的节点和边特征更新图级特征。时间步长归一化为[0,1],并将其视为y内部的全局特征。

3.3等效特性

        图对于节点的重新排序是不变的,这意味着n!矩阵可以表示相同的图。为了有效地从这些数据中学习,设计出不需要用随机排列来扩充数据的方法是至关重要的。这意味着如果训练数据被置换,梯度更新不应该改变。->需要:a permutation equivariant architecture and a permutation invariant loss。DiGress满足这两个属性。

Lemma 3.1 置换同变性:输出顺序与输入顺序对应。(置换不变性:输出与输入顺序无关)

Lemma 3.2 不变损失:损失函数可分解为digress: discrete denoising diffusion for graph generation,论文阅读,在每个节点和每条边上分别计算的两个函数和是置换不变的。

Lemma 3.3可交换性:DiGress产生可交换的分布,即它生成具有节点特征X和邻接矩阵A的图,对于任何置换π,邻接矩阵A满足。

4利用MARGINAL PROBABILITIES、STRUCTURAL FEATURES改进DiGress

4.1 CHOICE OF THE NOISE MODEL

        图是稀疏的因此边类型的边缘分布远远不是均匀。为了改进均匀转换,假设使用接近真实数据分布的先验分布使训练更容易。先验分布不能任意选择,因为它需要是置换不变的,以满足交换律(引理3.3)。因此该分布的自然模型是所有节点的单个分布u和所有边的单个分布v的乘积。

4.2 STRUCTURAL FEATURES AUGMENTATION

DiGress在离散空间上操作,其噪声图是不完整的,允许在每个扩散步骤计算各种图描述符。这些描述符可以输入到网络中,以帮助去噪过程,从而产生用于训练DiGress并从中采样的算法1和2。包含这些额外的特征可以通过实验提高性能,但不是必需的。应考虑选择包含哪些特征及其计算的计算性能。

5 CONDITIONAL GENERATION条件生成

        文章(Equivariant diffusion for molecule generation in 3d)执行条件生成是使用目标属性来训练去噪网络,但当条件属性改变时需要重新训练模型。本文使用一个被训练用于预测一个干净图的目标属性的regressor 。这个回归量通过在每个采样步骤调整预测的分布并将其推向具有所需属性的图来指导无条件扩散模型。

digress: discrete denoising diffusion for graph generation,论文阅读

EXPERIMENTS

GENERAL GRAPH GENERATION

        评估正确建模图的各种属性的能力,如所生成的图形是否是统计上可区分的SBM模型,或者如果它们是平面和连接。

代码

Pytorch Lightning库

包含五个部分:

  • Computations(init) 初始化相关计算
  • Train Loop(training_step) 每个step中执行的代码,相当于训练过程中处理一个batch的内容
  • Validation Loop(validation_step) 在一个epoch训练完以后执行Valid
  • Test Loop(test_step) 在整个训练完成以后执行Test
  • Optimizer(configure_optimizers) 配置优化器等

测试部分中每个batch的训练被称为一个step,故先运行train_step函数。当经过多个batch进行验证,运行validation_step函数。完成一个epoch的训练以后,会对整个epoch结果进行验证,运行validation_epoch_end函数。如果需要的话,可以调用测试部分代码。在training_step 、validation_step、test_step 后面都紧跟着其相应的training_step_end(self,batch_parts)training_epoch_end(self, training_step_outputs) 函数,当然,对于校验和测试,都有相应的*_step_end*_epoch_end函数。

论文代码

metrics:离散版digress用的是一种交叉熵代价函数

models:一个graph transformer,当成一个输入X、E、y和一个节点mask,输出更好的X、E、y的模型

PredefinedNoiseScheduleDiscrete类

调用diffusion_utils.cosine_beta_schedule_discrete或custom_beta_schedule_discrete方法生成对应的噪声数组betas。

diffusion_utils.cosine_beta_schedule_discrete:计算离散的余弦调度噪声系数

forward方法:t_normalized表示归一化的时间步,t_int表示整数时间步,相乘计算得到的整数时间步,从betas中获取对应的噪声系数并返回。

apply_noise

随机生成时间步,使用PredefinedNoiseScheduleDiscrete类的alpha_bar计算状态转移概率【Qt = prod(1 - beta_t) * I + (1 - prod(1 - beta_t)) * K】probX、probE。对probX、probE进行离散特征采样,获取采样后的特征值。然后将特征值转换为one-hot编码。

sample_p_zs_given_zt

从条件分布采样,计算得到当前时间步和目标时间步的噪声水平,获取转换模型中的转移矩阵,根据给定的输入数据和转移矩阵,计算条件概率分布的后验分布。对预测结果和后验分布进行加权处理,得到加权后的预测结果。对加权后的预测结果进行归一化处理,得到概率分布。使用采样函数从概率分布中采样出隐状态,将采样得到的隐状态转换为one-hot编码形式。根据给定的节点掩码对输出结果进行掩码操作。

compute_batched_over0_posterior_distribution后验分布计算

xt @ Qt.T * x0 @ Qsb / x0 @ Qtb @ xt.T

forward

torch.cat:两个张量(tensor)按指定维度拼接在一起

torch.hstack:水平方向上进行叠加

train_loss:用交叉熵作为损失函数文章来源地址https://www.toymoban.com/news/detail-765172.html

到了这里,关于论文笔记DIGRESS: DISCRETE DENOISING DIFFUSION FORGRAPH GENERATION的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • DDIM原理及代码(Denoising diffusion implicit models)

    之前学习了 DDPM(DDPM原理与代码剖析)和 IDDPM(IDDPM原理和代码剖析), 这次又来学习另一种重要的扩散模型。它的采样速度比DDPM快很多(respacing),扩散过程不依赖马尔科夫链。 Denoising diffusion implicit models, ICLR 2021 摘选paper一些重要思想。 (1) 由于DDPM加噪基于马尔科夫链过程,那么

    2024年02月02日
    浏览(41)
  • 离散数学笔记Discrete Mathematics

    ------------------------------------------------------------------- Design By 2100301629王家寧 1.集合的运算 ①补运算 ②对称差运算 2.集合运算的性质 ①集合运算的基本恒等式 (可用文氏图进行相关推导) 重点记忆德摩根律和补交转换律 ⑩和⑪ 德摩根律:补集分配进括号里面就把括号里面的

    2023年04月08日
    浏览(36)
  • AnoDDPM: Anomaly Detection with Denoising DiffusionProbabilistic Models using Simplex Noise论文学习

    1.在基于重建的异常检测中, 不需要全长马尔可夫链扩散 。这导致我们开发了一种 新的部分扩散异常检测策略 ,可扩展到 高分辨率图像 ,名为 AnoDDPM 。 2.高斯扩散不能捕获较大的异常,因此,我们开发了一个 多尺度的单纯形噪声扩散过程 来 控制目标异常大小。 1.DDPM能够从

    2024年02月09日
    浏览(44)
  • 2022图像翻译/扩散模型:UNIT-DDPM: UNpaired Image Translation with Denoising Diffusion Probabilistic Models

    我们提出了一种新的无配对图像间翻译方法,该方法使用去噪扩散概率模型而不需要对抗训练。我们的方法,UNpaired Image Translation with Denoising Diffusion Probabilistic Models(UNIT-DDPM),训练一个生成模型,通过最小化另一个域条件下的去噪分数匹配目标,推断图像在两个域上的联合分

    2023年04月18日
    浏览(47)
  • Multi Diffusion: Fusing Diffusion Paths for Controlled Image Generation——【论文笔记】

    本文发表于ICML 2023 论文官网:MultiDiffusion: Fusing Diffusion Paths for Controlled Image Generation           文本到图像生成模型已经具有合成高质量和多样化图像的能力,但是由于难以为用户提供对生成内容的直观控制,因此将文本到图像模型部署到现实世界的应用程序仍然具有挑战

    2024年02月02日
    浏览(43)
  • 【AI绘图学习笔记】Latent Diffusion Model(上)——论文解读

    gihub代码 论文-Arxiv-High-Resolution Image Synthesis with Latent Diffusion Models 参考视频:【渣渣讲课】试图做一个正常讲解Latent / Stable Diffusion的成年人 中文翻译论文(这篇翻译得很好) 我们来看一些主要的生成模型: 第一个GAN生成对抗网络,可以分为判别器和生成器两个部分,总体思想

    2024年02月07日
    浏览(48)
  • DREAMFUSION TEXT-TO-3D USING 2D DIFFUSION 论文笔记

    Recent breakthroughs in text-to-image synthesis have been driven by diffusion models trained on billions of image-text pairs. Adapting this approach to 3D synthe- sis would require large-scale datasets of labeled 3D data and efficient architectures for denoising 3D data, neither of which currently exist. In this work, we circum- vent these limitations by usi

    2024年02月07日
    浏览(55)
  • 论文阅读【自然语言处理-预训练模型2】BART:Denoising Sequence-to-Sequence Pre-training for Natural Language Generation

    BART: Denoising Sequence-to-Sequence Pre-training for Natural Language Generation, Translation, and Comprehension BART: 用于自然语言生成、翻译和理解的去噪序列对序列预训练 【机构】:Facebook AI 【作者】:Mike Lewis, Yinhan Liu, Naman Goyal, Marjan Ghazvininejad, Abdelrahman Mohamed, Omer Levy, Ves Stoyanov, Luke Zettlemoye

    2024年02月03日
    浏览(54)
  • 【论文笔记】Scene Reconstruction From 4D Radar Data with GAN and Diffusion

    原文链接:https://kth.diva-portal.org/smash/get/diva2:1799731/FULLTEXT01.pdf 本文使用深度生成模型(DGM)实现以4D雷达为条件的图像生成,以提供雷达数据的另一可视化方法并增强可解释性。 实验中的雷达和RGB相机固定在路面上方并经过时空同步。雷达和图像的数据对会作为网络的训练数

    2024年02月03日
    浏览(51)
  • Generative Diffusion Prior for Unified Image Restoration and Enhancement 论文阅读笔记

    这是CVPR2023的一篇用diffusion先验做图像修复和图像增强的论文 之前有一篇工作做了diffusion先验(Bahjat Kawar, Michael Elad, Stefano Ermon, and Jiaming Song, “Denoising diffusion restoration models,” arXiv preprint arXiv:2201.11793, 2022. 2, 4, 6, 7),但这个模型只能做线性的退化,对于暗图增强这种非线性

    2024年02月15日
    浏览(52)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包