【论文阅读】SynDiff Unsupervised Medical Image Translation with Adversarial Diffusion Models

这篇具有很好参考价值的文章主要介绍了【论文阅读】SynDiff Unsupervised Medical Image Translation with Adversarial Diffusion Models。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

Unsupervised Medical Image Translation with Adversarial Diffusion Models 论文大致翻译和主要内容讲解

摘要:

通过源-目标通道转换对缺失图像进行填充可以提高医学成像协议的多样性。合成目标图像的普遍方法包括通过生成性对抗网络(GAN)的一次映射。然而,隐含地描述图像分布的Gan模型可能会受到样本保真度有限的影响。为了提高医学图像翻译的性能,我们提出了一种基于对抗性扩散模型的新方法SynDiff。为了捕捉图像分布的直接相关性,SynDiff利用一个条件扩散过程,逐步将噪声和源图像映射到目标图像上。为了在推理过程中快速和准确地进行图像采样,在反向扩散方向上采用对抗性投影进行大的扩散步骤。为了能够在不成对的数据集上进行训练,设计了一个周期一致的体系结构,其中耦合了扩散和非扩散模块,这些模块在两个通道之间进行双边转换。

介绍:GAN:这种隐含的表征可能会受到学习偏差的影响,包括过早收敛和模式崩溃。此外,GAN模型通常采用快速单点采样过程而没有中间步骤,这固有地限制了网络执行的映射的可靠性。
SynDiff采用了步长较大的快速扩散过程以提高效率。(1)通过一种新颖的源条件对抗投影器实现了在逆扩散步骤中的精确采样,该投影器在源图像的引导下对目标图像样本进行去噪。(2)为了实现无监督学习,设计了一种循环一致性架构,在两种模态之间具有双向耦合的扩散和非扩散过程的情况。这里分别对应图一和图二。

贡献:

我们引入了第一个对抗扩散模型用于高保真医学图像合成的文献。
我们介绍了第一个基于扩散的无监督医学图像翻译的方法,使训练的源目标模态的不配对数据集。
我们提出了一种新的源条件对抗投影仪,以捕获大步长的反向转移概率,有效的图像采样。

相关工作:

介绍一些GAN方法,通过其模式崩溃,多样性以及可靠性的缺乏引渡到扩散模型。由于逐步随机抽样过程和显式似然特征,扩散模型可以提高网络映射的可靠性,以提供增强的样本质量和多样性。源域和目标域底层有着很重要的信息,因此本文使用条件扩散将其引导。SynDiff利用条件扩散过程,其中将来自实际源图像的高质量结构信息作为条件输入提供给反向扩散步骤。之后介绍DDGAN和UNIT-DDPM,UMM-CGSM.

方法:

首先介绍了DiffusionModel。介绍了大致推导和公式讲解。
之后介绍SynDiff。
unsupervised medical image translation with adversarial diffusion models,论文阅读,医学图像处理
Regular Diffusion Model :X0是我们的目标域。首先加噪到高斯噪声;y是源域,在反向过程的时候,我们将源域信息添加进去作为指导条件,希望逐步去噪得到的图像里面由我们的源域信息,从而更好的生成目标域。

Adversarial diffusion model:反向过程如图所示。通过某一个时刻t的(Xt,y)通过生成器生成X0^(预测的目标图像)。然后将Xt,预测的X0通过反向扩散得到预测的Xt-k。然后将真实的Xt,Xt-k和预测的Xt-k通过辨别器来进行辨别。

为了生成A域的图片,则我们还需要源域B的图片,但是在实际中可能没有配对的图像,因此我们需要一个非扩散模型的生成器来从A生成一个源域B的图像。为了生成B域的,则我们首先需要从B生成A域的源域图像;
unsupervised medical image translation with adversarial diffusion models,论文阅读,医学图像处理
unsupervised medical image translation with adversarial diffusion models,论文阅读,医学图像处理

最上面两个图表示了A域B域分别作为目标域时候的操作。当A为目标域时:先生成B域源域的图像,然后又生成A域目标域的图像。将B域源域的图像和label送进辨别器。

最下面两个图表示了不同的域的逆向扩散过程。 当A为目标域时,传入目标域噪声,预测的源域图像通过生成器A预测出最终的目标图像,然后通过扩散过程得到Xt-k。将Xt,预测的Xt-k和label送入鉴别器。

对抗性扩散过程:

常规的扩散模型需要T步,很费时间。本文使用如下公式:
unsupervised medical image translation with adversarial diffusion models,论文阅读,医学图像处理
unsupervised medical image translation with adversarial diffusion models,论文阅读,医学图像处理
unsupervised medical image translation with adversarial diffusion models,论文阅读,医学图像处理
unsupervised medical image translation with adversarial diffusion models,论文阅读,医学图像处理
unsupervised medical image translation with adversarial diffusion models,论文阅读,医学图像处理
unsupervised medical image translation with adversarial diffusion models,论文阅读,医学图像处理
unsupervised medical image translation with adversarial diffusion models,论文阅读,医学图像处理

训练步骤(自己结合代码所写):

都是操作的两个域,举例子就举一个方向的即可。
首先训练DD(Diffusion Discriminator),固定生成器
1.真实数据
根据真实数据A生成正向采样的XAt,XAt+1。
通过DD来鉴别这个两个真实的(XAt,t,XAt+1)
期望这个值越大越好。所以加了负号。
2.假数据
通过NDG(NonDiffusionGenerator)来生成真实A,B对应的另外一个域的数据
然后通过DG生成XA0 传入(真实的XAt,预测的XB(源域),t1,潜在变量)
然后通过(预测的XA0,真实XAt+1,t1)来预测XAt.
通过DD来判断假的(预测的XAt,t1,真实的XAt+1)
期待这个值越小越好。
现在就对DD参数进行更新。

然后训练NND(NonDiffusionDiscriminator),固定生成器
1.真实数据
通过NND来鉴别真实的A,B数据。 disc_non_diffusive_cycle1(real_data1)
2.假数据
通过NNG来生成B对应的A域数据。x1_0_predict = gen_non_diffusive_2to1(real_data2)
通过NND来鉴别假的A,B数据。
值越小越好。

接下来对生成器进行训练,固定鉴别器。
通过真实的A生成真实的XAt,XAt+1。 x1_t, x1_tp1 = q_sample_pairs(coeff, real_data1, t1)
通过NDG将B预测到A,再把A预测回B。
通过DG(真实的XAt+1,预测B,t1,潜在变量z1)生成预测的XA。
通过预测的XA,真实的XAt+1采样得到XAt.
通过DD来鉴别假的(采样的XAt,t1, 真实的XAt+1) 但是生成器希望这个生成的数据接近真实的,所以越大越好。
通过NDG将B预测到A的图片通过NND进行辨别。文章来源地址https://www.toymoban.com/news/detail-854616.html

到了这里,关于【论文阅读】SynDiff Unsupervised Medical Image Translation with Adversarial Diffusion Models的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 【论文阅读笔记】Prompt Tuning for Parameter-efficient Medical Image Segmentation

    Fischer M, Bartler A, Yang B. Prompt tuning for parameter-efficient medical image segmentation[J]. Medical Image Analysis, 2024, 91: 103024. 【开源】 【核心思想】 本文的核心思想是提出了一种用于医学图像分割的参数高效的提示调整(Prompt Tuning)方法。这种方法基于预训练的神经网络,通过插入可学习的

    2024年01月17日
    浏览(58)
  • 图像融合论文阅读:U2Fusion: A Unified Unsupervised Image Fusion Network

    @ARTICLE{9151265, author={Xu, Han and Ma, Jiayi and Jiang, Junjun and Guo, Xiaojie and Ling, Haibin}, journal={IEEE Transactions on Pattern Analysis and Machine Intelligence}, title={U2Fusion: A Unified Unsupervised Image Fusion Network}, year={2022}, volume={44}, number={1}, pages={502-518}, doi={10.1109/TPAMI.2020.3012548}} SCI A1;IF 23.6 论文地址 代码

    2024年01月17日
    浏览(55)
  • 【论文阅读笔记】A Recent Survey of Vision Transformers for Medical Image Segmentation

    Khan A, Rauf Z, Khan A R, et al. A Recent Survey of Vision Transformers for Medical Image Segmentation[J]. arXiv preprint arXiv:2312.00634, 2023. 【论文概述】 本文是关于医学图像分割中视觉变换器(Vision Transformers,ViTs)的最新综述。文中详细回顾了ViTs及其与卷积神经网络(CNNs)结合形成的混合视觉Trans

    2024年02月02日
    浏览(66)
  • 《VM-UNet: Vision Mamba UNet for Medical Image Segmentation》论文阅读及代码复现

    论文地址:[2402.02491] VM-UNet: Vision Mamba UNet for Medical Image Segmentation (arxiv.org) 代码地址:JCruan519/VM-UNet: (ARXIV24) This is the official code repository for \\\"VM-UNet: Vision Mamba UNet for Medical Image Segmentation\\\". (github.com) 摘要 : 在医学图像分割领域,基于细胞神经网络和基于变换器的模型都得到了广

    2024年03月24日
    浏览(63)
  • 【论文阅读笔记】UNSUPERVISED REPRESENTATION LEARNING FOR TIME SERIES WITH TEMPORAL NEIGHBORHOOD CODING

     本文提出了一种自监督框架,名为“时间邻域编码”(Temporal Neighborhood Coding,TNC),用于学习非平稳时间序列的可泛化表示。该方法利用信号生成过程的局部平滑性来定义具有平稳性质的时间邻域。通过使用去偏差对比目标,该框架通过确保在编码空间中,来自邻域内的信

    2024年02月21日
    浏览(65)
  • 【论文阅读笔记】Swin-Unet: Unet-like Pure Transformer for Medical Image Segmentation

    Swin-Unet: Unet-like Pure Transformer for Medical Image Segmentation Swin-Unet:用于医学图像分割的类Unet纯Transformer 2022年发表在 Computer Vision – ECCV 2022 Workshops Paper Code 在过去的几年里,卷积神经网络(CNN)在医学图像分析方面取得了里程碑式的成就。特别是基于U型结构和跳跃连接的深度神经

    2024年01月23日
    浏览(53)
  • 【论文阅读】(DALLE-3)Improving Image Generation with Better Captions

    引用: Betker J, Goh G, Jing L, et al. Improving image generation with better captions[J]. Computer Science. https://cdn. openai. com/papers/dall-e-3. pdf, 2023, 2(3): 8. 论文链接: https://arxiv.org/abs/2212.09748 论文展示了 通过在高度描述性的生成图像captions上训练,可以显著提高文本到图像模型的提示跟随能力 。

    2024年03月12日
    浏览(50)
  • 论文阅读--High-Resolution Image Synthesis with Latent Diffusion Models

    High-Resolution Image Synthesis with Latent Diffusion Models论文阅读 Abstract Introduction Diffusion model相比GAN可以取得更好的图片生成效果,然而该模型是一种自回归模型,需要反复迭代计算,因此训练和推理代价都很高。论文提出一种在潜在表示空间(latent space)上进行diffusion过程的方法,

    2024年01月17日
    浏览(64)
  • 【论文阅读】SuperFusion: A Versatile Image Registration and Fusion Network with Semantic Awareness

    论文链接:SuperFusion: A Versatile Image Registration and Fusion Network with Semantic Awareness | IEEE Journals Magazine | IEEE Xplore 代码: GitHub - Linfeng-Tang/SuperFusion: This is official Pytorch implementation of \\\"SuperFusion: A Versatile Image Registration and Fusion Network with Semantic Awareness\\\" 图像融合的重要性:由于摄影环境

    2024年03月19日
    浏览(51)
  • 自监督论文阅读笔记 RingMo: A Remote Sensing Foundation Model with Masked Image Modeling

            深度学习方法促进了遥感 (RS) 图像解释的快速发展。最广泛使用的训练范式是利用 ImageNet 预训练模型来处理指定任务的 RS 数据。然而,存在  自然场景与RS场景之间的领域差距 ,以及 RS模型泛化能力差 等问题。开发 具有通用 RS 特征表示的基础模型 是有意义的。

    2024年02月16日
    浏览(53)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包