如何将 Stable Diffusion PT+YAML 转换成 diffusers 格式

这篇具有很好参考价值的文章主要介绍了如何将 Stable Diffusion PT+YAML 转换成 diffusers 格式。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

Huggingfacediffusers 格式是初学者最爱的格式,只需要简单几行代码,就可以下载模型,执行 文字到图片 转换等常用功能

而有时候在网上淘模型的时候,经常会遇到原版 Stable Diffusion 格式,只有一个 .pt 文件和一个 .yaml 配置文件,为了方便管理和加载,可以把原版格式转换为 diffusers 格式

下面以 waifu-diffusion-1.4 为示例,演示下如何完成格式转换

  1. 从网站上下载 waifu-diffusion-1.4 的 文件

https://huggingface.co/hakurei/waifu-diffusion-v1-4

wd-1-4-anime_e1.yaml
wd-1-4-anime_e2.ckpt
  1. 在本地准备 Python 环境
python -m venv venv
source venv/bin/activate
pip install 'diffusers[torch]' 'safetensors' 'transformers' 'omegaconf'
  1. 下载脚本文件

https://github.com/huggingface/diffusers/blob/v0.14.0/scripts/convert_original_stable_diffusion_to_diffusers.py

注意切换到匹配的 diffusers 版本,不然会出问题

  1. 执行命令
python convert_original_stable_diffusion_to_diffusers.py \
	--checkpoint_path wd-1-4-anime_e2.ckpt \
    --original_config_file wd-1-4-anime_e1.yaml \
    --image_size 768 \
    --scheduler_type pndm \
    --prediction_type v_prediction \
    --extract_ema \
    --to_safetensors \
    --device cpu \
    --dump_path out

即可在 out 目录下得到符合 diffusers 格式的模型了

可以使用

StableDiffusionImg2ImgPipeline.from_pretrained("path/to/out")

从本地目录加载模型文章来源地址https://www.toymoban.com/news/detail-564166.html

到了这里,关于如何将 Stable Diffusion PT+YAML 转换成 diffusers 格式的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 【深度学习】Stable Diffusion

    Stable Diffusion原理: https://zhuanlan.zhihu.com/p/632866251 https://zhuanlan.zhihu.com/p/613337342 源码中的模型:

    2024年02月11日
    浏览(33)
  • AI视频风格转换:Stable Diffusion+EBSynth

    这次转换的视频还比较稳定,先给大家看下效果。 这里传不了视频,还是放到盘盘了:https://www.aliyundrive.com/s/5mzfjLViyDa 书接上文,在上一篇文章中,我们首先使用 TemporalKit 提取了视频的关键帧图片,然后使用 Stable Diffusion 重绘了这些图片,然后又使用 TemporalKit 补全了重绘后

    2024年02月16日
    浏览(32)
  • AI视频风格转换:Stable Diffusion+TemporalKit

    首先通过 Temporal-Kit 这个插件提取视频中的关键帧图片,然后使用 Stable Diffusion WebUI 重绘关键帧图片,然后再使用 Temporal-Kit 处理转换后的关键帧图片,它会自动补充关键帧之间的图片,最后拼合这些图片,形成视频。 这个方法建议尽量找些背景简单的、主体在画面中占比较

    2024年04月16日
    浏览(35)
  • [深度学习]stable diffusion官方模型下载地址

    由于老忘记下载地址还有官方给的下载地址我也是老找不到,因此放博客备份一下,同时也给有需要的人。 1.4版本下载: CompVis/stable-diffusion-v-1-4-original · Hugging Face 1.5版本下载: runwayml/stable-diffusion-v1-5 at main sdxl-0.9.0版本下载 https://huggingface.co/stabilityai/stable-diffusion-xl-base-0.

    2024年02月11日
    浏览(40)
  • Stable Diffusion 深度图像库插件使用小记

            Controlnet 横空出世以来,Stable Diffusion 从抽卡模式变为 引导控制模式,产生了质的飞跃,再也不用在prompt中钻研如何描述生成人物的动作模式,他对AI画师来说生产力提高不知道多少倍,文末附100个Lora资源方便大家使用。对于论文作者,某渣深感佩服。 ControlNet直

    2024年02月09日
    浏览(32)
  • 深度学习关于stable diffusion官方模型下载,并附上:Stable Diffusion下载+安装+使用教程,保证你能学会!

    下载地址: 自用备份,有需要的人请拿去,不客气!! 1.4版本下载: CompVis/stable-diffusion-v-1-4-original · Hugging Face 1.5版本下载: runwayml/stable-diffusion-v1-5 at main sdxl-0.9.0版本下载 https://huggingface.co/stabilityai/stable-diffusion-xl-base-0.9 sdxl-1.0版本下载: https://huggingface.co/stabilityai/stable-

    2024年01月18日
    浏览(39)
  • Stable Diffusion:一种新型的深度学习AIGC模型

    潜在扩散模型 | AIGC| Diffusion Model  图片感知压缩 | GAN | Stable Diffusion 随着生成型AI技术的能力提升,越来越多的注意力放在了通过AI模型提升研发效率上。业内比较火的AI模型有很多,比如画图神器Midjourney、用途多样的Stable Diffusion,以及OpenAI此前刚刚迭代的DALL-E 2。 对于研发

    2024年02月09日
    浏览(51)
  • Stable-Diffusion深度学习文本到图像生成模型

    https://zh.wikipedia.org/zh-cn/Stable_Diffusion https://en.wikipedia.org/wiki/Stable_Diffusion https://github.com/Stability-AI/stablediffusion Stability AI https://github.com/CompVis/stable-diffusion Stable Diffusion是2022年发布的深度学习文本到图像生成模型。 它主要用于根据文本的描述产生详细图像,尽管它也可以应用于

    2024年02月11日
    浏览(32)
  • 〔006〕Stable Diffusion 之 文本转换(Embedding)和脚本(Script)高级使用 篇

    这个功能其实就是将你常用的提示词打包成一个,你在写 prompt 的时候,只要输入这个,就可以实现特定的各种预设好的画风、画质或者其他相关的特征。 在之前的版本中,这个功能也被叫做文本嵌入 (Embedding) 我们可以在模型网站上找到很多别人已经打包好的

    2024年02月12日
    浏览(34)
  • 【深度学习】AUTOMATIC1111 / stable-diffusion-webui docker

    代码:https://github.com/AUTOMATIC1111/stable-diffusion-webui/ CUDA 11.8 制作了一个镜像,可以直接开启stable diffusion的web ui 服务。 确定自己的显卡支持CUDA11.8,启动此镜像方式: 进入容器后启动stable-diffusion-webui : 当然,你可以把model文件通过docker -v挂载出来,方法如下。 先启动容器:

    2024年02月05日
    浏览(38)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包