【深度学习】风格迁移,转换,Stable Diffusion,FreeStyle : Free Lunch for Text-guided Style Transfer using Diffusion

这篇具有很好参考价值的文章主要介绍了【深度学习】风格迁移,转换,Stable Diffusion,FreeStyle : Free Lunch for Text-guided Style Transfer using Diffusion。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

论文:https://arxiv.org/abs/2401.15636

代码:https://github.com/FreeStyleFreeLunch/FreeStyle

介绍

生成扩散模型的快速发展极大地推进了风格迁移领域的发展。然而,大多数当前基于扩散模型的风格转移方法通常涉及缓慢的迭代优化过程,例如模型微调和风格概念的文本反转。在本文中,我们介绍了 FreeStyle,这是一种基于预先训练的大型扩散模型构建的创新风格转移方法,无需进一步优化。此外,我们的方法仅通过所需样式的文本描述即可实现样式迁移,从而消除了样式图像的必要性。具体来说,我们提出了一种双流编码器和单流解码器架构,取代了扩散模型中的传统 U-Net。在双流编码器中,两个不同的分支将内容图像和风格文本提示作为输入,实现内容和风格解耦。在解码器中,我们根据给定的内容图像和相应的风格文本提示进一步调制双流的特征,以实现精确的风格转移。

环境安装

conda create -n stylefree python==3.8.18
conda activate stylefree

cd diffusers
pip install -i https://pypi.tuna.tsinghua.edu.cn/simple -e .
pip install torchsde -i https://pypi.tuna.tsinghua.edu.cn/simple
cd ../diffusers_test
pip install transformers
pip install accelerate

SD模型文件下载

下载 SD 模型文件 L:
下载 SDXL 并将其放入:./diffusers_test/stable-diffusion-xl-base-1.0

稳定版 SDXL-diffusion-xl-base-1.0 模型对人脸生成比较崩溃,你可以尝试一些其他的 SDXL 模型,比如这样:

# 蜡笔画
python stable_diffusion_xl_test.py \
--refimgpath ./content1 \
--model_name "/data/xiedong/fooocus_tensorRT/TensorRT/juggernautXL_v8Rundiffusion_split" \
--unet_name /data/xiedong/fooocus_tensorRT/TensorRT/juggernautXL_v8Rundiffusion_split/unet/ \
--prompt_json ./style_prompt5.json \
--num_images_per_prompt 4 \
--output_dir ./output0 \
--sampler "DDIM" --step 30 --cfg 5 \
--height 1024 --width 1024 --seed 123456789 --n 160 --b 1.8 --s 1

论文

摘要
生成扩散模型的快速发展显著推进了风格转移领域。然而,基于扩散模型的大多数当前风格转移方法通常涉及缓慢的迭代优化过程,例如,模型微调和风格概念的文本反演。在本文中,我们介绍了FreeStyle,一种建立在预训练大型扩散模型之上的创新风格转移方法,无需进一步优化。此外,我们的方法使得风格转移仅通过对所需风格的文本描述,消除了对风格图像的必要性。具体而言,我们提出了一个双流编码器和单流解码器架构,取代了扩散模型中的常规U-Net。在双流编码器中,两个不同的分支分别将内容图像和风格文本提示作为输入,实现内容和风格解耦。在解码器中,我们根据给定的内容图像和相应的风格文本提示进一步调制来自双流的特征,实现精确的风格转移。我们的实验结果表明,我们的方法在各种内容图像和风格文本提示上均具有高质量的合成和保真度。我们的代码和更多结果可在我们的项目网站上找到:https://freestylefreelunch.github.io/。

1 介绍
Introduction
图像风格转换[Jing et al., 2019; Gatys et al., 2015]旨在将自然图像转换为所需的艺术图像,同时保留内容信息。随着生成扩散模型的快速发展[Rombach et al., 2022; Podell et al., 2023],图像风格转换也取得了显著进展。这些方法可以大致分为两类:微调方法[Wang et al., 2023; Huang et al., 2022]和反演方法[Zhang et al., 2023b; Mokady et al., 2023]。前者(如图1(a)所示)需要优化一些或所有参数以降低模型生成的特定风格图像,而后者(如图1(b)所示)涉及学习将特定风格概念作为文本标记,以指导特定风格的生成。这两种方法通常需要数千甚至更多次的训练迭代,导致计算成本高昂且优化过程缓慢。

diffusion 风格迁移,深度学习机器学习,深度学习,stable diffusion,人工智能

大型文本引导扩散模型[Rombach et al., 2022; Zhang et al., 2023a; Saharia et al., 2022]通常是在大规模文本-图像对数据集上进行训练的,例如LAION数据集[Schuhmann et al., 2021],其中包含各种风格图像和相应的风格文本提示。因此,这些模型[Rombach et al., 2022; Podell et al., 2023]本质上具有特定风格的生成能力。这引出了一个问题:如何利用预训练的文本引导扩散模型的各种风格生成能力进行风格转换任务,而无需额外的优化?

最近的研究[Alaluf et al., 2023; Hertz et al., 2023]引入了跨图像注意机制到预训练的扩散模型中,实现了外观或风格转换的控制而无需任何优化。然而,仍然需要使用外观图像或风格图像作为参考。在一些实际应用中,用户可能无法获取参考图像,但他们希望基于风格文本提示进行图像转换。例如,用户可以设想将其照片转换为类似于毕加索或达芬奇的风格,而不必拥有这些著名艺术家的作品。在本文中,我们提出了一种新颖的风格转换方法,既不需要优化也不需要风格图像。具体来说,我们提出了一个由双流编码器和单流解码器组成的新颖结构。在这种配置中,双流编码器分别对内容图像和风格文本提示进行编码,从相应的模态中提取特征以供解码器集成。我们相信图像由控制图像内容的低频信号和控制图像风格的高频信号组成[Seo, 2020; Shang et al., 2023]。受FreeU[Si et al., 2023]启发,该方法实例化了两个调制因子,以平衡来自U-Net主骨干的低频特征和来自跳跃连接的高频特征,从而改善图像生成的质量。我们使用两个缩放因子调制两个不同编码器生成的特征图,第一个缩放因子调节图像中的风格转移强度,第二个缩放因子控制图像中内容保留的程度。我们的方法非常简单高效,只需调整适当的缩放因子即可实现对任何图像的特定风格的转移。

我们的FreeStyle框架在与现有的大型文本引导扩散模型集成时展现了无缝的风格转换适应性,例如SDXL[Podell et al., 2023]。需要注意的是,尽管与预训练扩散模型中的U-Net[Ronneberger et al., 2015]模型存在结构差异,但我们的方法集成了U-Net模块而不引入新参数。据我们所知,FreeStyle是基于扩散模型的第一个既不需要参考风格图像也不需要任何优化的风格转换方法。我们对我们的方法与其他最先进技术进行了全面比较,包括CLIPstyler[Kwon and Ye, 2022]、CAST[Zhang et al., 2022]、StyTr2[Deng et al., 2022]、UDT2I[Wu et al., 2023b]等。我们的贡献总结如下:
• 我们提出了一种简单有效的基于大型文本引导扩散模型的框架,称为FreeStyle,该框架将内容图像的输入与所需风格的文本输入解耦,实现了特定风格转换而无需任何优化和风格参考。
• 为了进一步平衡内容信息的保留和艺术一致性,我们提出了一个新颖的特征融合模块,旨在调制图像内容的特征和相应风格文本提示的特征。
• 我们对来自各种艺术家和风格的广泛图像进行了全面实验。结果显示,由FreeStyle生成的艺术图像表现出准确的风格表达和高质量的内容-风格融合。与最先进方法相比,FreeStyle展示了更优越和更自然的风格化效果。

2 相关工作
2.1 图像风格转移
风格转移领域在图像处理和计算机视觉中起着重要作用。它从手工纹理合成[Wang et al., 2004; Zhang et al., 2013]迅速发展到先进的神经风格转移(NST)[Jing et al., 2019; Zhang et al., 2019; Sanakoyeu et al., 2018; Deng et al., 2022; Zhang et al., 2022; He et al., 2023],标志着从传统技术到现代深度学习方法的重大转变。生成对抗网络(GANs)[Goodfellow et al., 2014]具有令人印象深刻的图像生成能力,已经被迅速应用于风格转移任务[Zhu et al., 2017; Karras et al., 2019; Gal et al., 2022],进一步推动了该领域的发展。随着生成扩散模型的迅速发展[Sohl-Dickstein et al., 2015; Ho et al., 2020],图像风格转移取得了显著进展。这些技术可以分为两大类:微调法和反演法。微调法[Wang et al., 2023; Huang et al., 2022]使用大量风格图像优化模型的某些或所有参数,将它们的视觉风格嵌入模型的输出领域。相比之下,反演法[Zhang et al., 2023b; Mokady et al., 2023]使用风格或内容图像将风格或内容概念嵌入到特殊的词嵌入中,并使用包含这些词嵌入的提示实现风格转移。基于扩散模型的上述方法需要风格图像来训练模型,导致优化过程缓慢。最近的研究[Alaluf et al., 2023; Hertz et al., 2023]引入了跨图像注意机制,开发了一种不需要任何优化的风格转移方法。然而,这些方法仍然依赖于风格图像作为参考。作为一种文本引导的风格转移方法,FreeStyle通过调节扩散模型的潜在空间特征,利用其固有的解耦能力进行风格转换,无需额外的优化或风格参考图像。
2.2 文本引导的合成
GAN-CLS[Reed et al., 2016]是第一个利用递归神经网络[Lipton et al., 2015]和生成对抗网络[Goodfellow et al., 2014]实现文本引导的花朵和鸟类图像合成的方法。随后,在文本引导图像生成方面进行了大量努力[Zhang et al., 2017; Xu et al., 2018; Zhu et al., 2019],推动了该领域的快速发展。得益于CLIP的引入[Radford et al., 2021],GLIDE[Nichol et al., 2021]迅速成为第一个实现符合描述的文本引导图像生成的方法,随后又发展了扩散模型。除了生成与文本描述相匹配的图像外,文本引导技术现在在各种任务中被广泛使用,如图像编辑[Wu et al., 2023b; Gal et al., ; Kawar et al., 2023],图像恢复[Qi et al., 2023; Lin et al., 2023]和视频合成[Esser et al., 2023]等。傅子瑞等人[傅等,2022]认为,依赖于预先准备的特定风格图像的传统风格转移方法在实际应用中既不方便也限制创造力。在此之后,引入了一种由文本描述引导的新风格转移方法[Kwon and Ye, 2022; Patashnik et al., 2021],提供了增强的灵活性和便利性。这不仅简化了复杂的艺术创作,还使先进的图像处理技术可以更广泛地普及,而无需专业的图形设计技能。因此,文本引导图像处理正在改变我们与视觉内容互动和创造的方式。

超参数b和s的影响。我们在超参数b和s上进行了消融实验,结果如图6所示。在FreeStyle中,内容和风格信息的强度分别由两个超参数b和s调整。我们观察到,当b的值较小时,图像中的内容更受风格的严重干扰。另一方面,较大的s值会导致图像纹理更加平滑,而非常小的s值会产生类似噪声的纹理。总体而言,FreeStyle对超参数的敏感性相对较低,表现出强大的稳健性。具体而言,我们发现当超参数b设置为2.5,s设置为1时,其性能最佳。

超参数σ的影响。图7说明了超参数σ对风格转移效果的影响。观察表明,当σ超过850时,可以实现更好的风格转移,而当σ变得太小时,效果逐渐恶化。我们认为,过小的σ值导致fs包含过多的内容信息,这会显著干扰风格信息。

diffusion 风格迁移,深度学习机器学习,深度学习,stable diffusion,人工智能文章来源地址https://www.toymoban.com/news/detail-849814.html

到了这里,关于【深度学习】风格迁移,转换,Stable Diffusion,FreeStyle : Free Lunch for Text-guided Style Transfer using Diffusion的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 毕设 深度学习图像风格迁移 - opencv python

    🔥 这两年开始毕业设计和毕业答辩的要求和难度不断提升,传统的毕设题目缺少创新和亮点,往往达不到毕业答辩的要求,这两年不断有学弟学妹告诉学长自己做的项目系统达不到老师的要求。 为了大家能够顺利以及最少的精力通过毕设,学长分享优质毕业设计项目,今天

    2024年02月04日
    浏览(43)
  • 竞赛项目 深度学习图像风格迁移 - opencv python

    🔥 优质竞赛项目系列,今天要分享的是 🚩 深度学习图像风格迁移 - opencv python 该项目较为新颖,适合作为竞赛课题方向,学长非常推荐! 🥇学长这里给一个题目综合评分(每项满分5分) 难度系数:3分 工作量:3分 创新点:4分 🧿 更多资料, 项目分享: https://gitee.com/danche

    2024年02月13日
    浏览(28)
  • 【深度学习实战】基于深度学习的图片风格快速迁移软件(Python源码+UI界面)

    摘要: 图像风格迁移(Image Style Transfer) 是一种将一张图像的风格应用到另一张图像上的技术。本文详细介绍了其实现的技术原理,同时给出完整的 Python 实现代码、训练好的Pt模型,并且通过 PyQT 实现了UI界面,更方便进行功能的展示。图片风格转换系统主要实现了3种风格

    2024年02月02日
    浏览(38)
  • 深度学习图像风格迁移 - opencv python 计算机竞赛

    🔥 优质竞赛项目系列,今天要分享的是 🚩 深度学习图像风格迁移 - opencv python 该项目较为新颖,适合作为竞赛课题方向,学长非常推荐! 🥇学长这里给一个题目综合评分(每项满分5分) 难度系数:3分 工作量:3分 创新点:4分 🧿 更多资料, 项目分享: https://gitee.com/danche

    2024年02月04日
    浏览(38)
  • 【深度学习】【风格迁移】Zero-shot Image-to-Image Translation

    论文:https://arxiv.org/abs/2302.03027 代码:https://github.com/pix2pixzero/pix2pix-zero/tree/main 大规模文本到图像生成模型展示了它们合成多样且高质量图像的显著能力。然而,直接将这些模型应用于编辑真实图像仍然存在两个挑战。首先, 用户很难提供完美的文本提示,准确描述输入图像

    2024年02月13日
    浏览(33)
  • 【深度学习】【风格迁移】Visual Concept Translator,一般图像到图像的翻译与一次性图像引导,论文

    General Image-to-Image Translation with One-Shot Image Guidance 论文:https://arxiv.org/abs/2307.14352 代码:https://github.com/crystalneuro/visual-concept-translator 最近,大规模的文本到图像模型在大量文本-图像对上进行预训练,表现出了出色的图像合成性能。然而,图像可以提供比纯文本更直观的视觉概

    2024年02月13日
    浏览(29)
  • 【深度学习】Stable Diffusion

    Stable Diffusion原理: https://zhuanlan.zhihu.com/p/632866251 https://zhuanlan.zhihu.com/p/613337342 源码中的模型:

    2024年02月11日
    浏览(31)
  • [深度学习]stable diffusion官方模型下载地址

    由于老忘记下载地址还有官方给的下载地址我也是老找不到,因此放博客备份一下,同时也给有需要的人。 1.4版本下载: CompVis/stable-diffusion-v-1-4-original · Hugging Face 1.5版本下载: runwayml/stable-diffusion-v1-5 at main sdxl-0.9.0版本下载 https://huggingface.co/stabilityai/stable-diffusion-xl-base-0.

    2024年02月11日
    浏览(39)
  • Stable Diffusion:一种新型的深度学习AIGC模型

    潜在扩散模型 | AIGC| Diffusion Model  图片感知压缩 | GAN | Stable Diffusion 随着生成型AI技术的能力提升,越来越多的注意力放在了通过AI模型提升研发效率上。业内比较火的AI模型有很多,比如画图神器Midjourney、用途多样的Stable Diffusion,以及OpenAI此前刚刚迭代的DALL-E 2。 对于研发

    2024年02月09日
    浏览(51)
  • Stable-Diffusion深度学习文本到图像生成模型

    https://zh.wikipedia.org/zh-cn/Stable_Diffusion https://en.wikipedia.org/wiki/Stable_Diffusion https://github.com/Stability-AI/stablediffusion Stability AI https://github.com/CompVis/stable-diffusion Stable Diffusion是2022年发布的深度学习文本到图像生成模型。 它主要用于根据文本的描述产生详细图像,尽管它也可以应用于

    2024年02月11日
    浏览(32)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包