如何创建 LoRA 并应用到 Stable Diffusion WebUI 里

这篇具有很好参考价值的文章主要介绍了如何创建 LoRA 并应用到 Stable Diffusion WebUI 里。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

本着觉知此事要躬行的态度,笔者没有去看任何国内的教程,依靠着纯粹在 Github 上翻阅原版代码仓库,找到了解决方案

准备数据集

LoRA 的特点就是几张图就够,并且不需要复杂的文本注释。

所以,你的数据集,就是一堆散装照片,缩放到正确的尺寸 (512x512 对应 SD1.x, 768x768 对应 SD2.x)

然后准备简单一句话即可,比如

a photo of user yk

下载 diffusers 提供的脚本

安装 diffusers 库和依赖

同时从 Github 上找到脚本,和 requirements.txt 文件

https://github.com/huggingface/diffusers/tree/main/examples/dreambooth

注意从 main 分支切换到你刚才安装的 diffusers 版本标签,不然可能会有问题

下载 train_dreambooth_lora.py 这个脚本,千万不要下载错了

训练

把你的图片放到 src 目录下,然后执行以下脚本

export MODEL_NAME="runwayml/stable-diffusion-v1-5"
export INSTANCE_DIR=src
export OUTPUT_DIR=out
export INSTANCE_PROMPT="a photo of yk"
export VALIDATION_PROMPT="a photo of yk at winter street"

exec accelerate launch \
    train_dreambooth_lora.py \
    --pretrained_model_name_or_path=$MODEL_NAME  \
    --instance_data_dir=$INSTANCE_DIR \
    --output_dir=$OUTPUT_DIR \
    --instance_prompt="${INSTANCE_PROMPT}" \
    --resolution=512 \
    --train_batch_size=1 \
    --gradient_accumulation_steps=1 \
    --checkpointing_steps=100 \
    --learning_rate=1e-4 \
    --lr_scheduler="constant" \
    --lr_warmup_steps=0 \
    --max_train_steps=500 \
    --validation_prompt="${VALIDATION_PROMPT}" \
    --validation_epochs=50 \
    --seed="0"

很快啊,你就能在 out 目录下拿到 pytorch_lora_weights.bin 文件了

转换成 safetensors 文件

我从 Github 上淘到了一个脚本,可以把 .bin 文件转换为 .safetensors 文件

https://github.com/guoyk93/sd-scripts/blob/main/lora/diffusers-lora-to-safetensors.py

python diffusers-lora-to-safetensors.py --file out/pytorch_lora_weights.bin

这样就拿到了 safetensors 文件,重命名后,塞到 SD WebUImodels/LoRA 子目录下,就可以在 txt2imgimg2imgPrompt 中引用了

笔者已经成功做出来自己脸部的 LoRA

后记

简简单单两个步骤就能搞定的事情,笔者愣是在 Github 上苦苦寻找了两天

笔者首先去找了 LoRA 原作者的 lora_pti 命令,发现生成的 safetensors 文件并不能直接用在 SD WebUI 里面

看了报错信息,发现 key 值完全对不上

笔者然后去找了 diffusers 官方的脚本,结果错误地使用了 train_text_to_image_lora.pytrain_dreambooth.py 依旧没有收获

最后正确地使用了 train_dreambooth_lora.py 脚本,结果发下生成出来的 .bin 文件 SD WebUI 依然不能识别

最后在 Github Issue 里面才找到别人的转换脚本

Stable Diffusion 的生态环境还需要时间成熟啊文章来源地址https://www.toymoban.com/news/detail-442727.html

到了这里,关于如何创建 LoRA 并应用到 Stable Diffusion WebUI 里的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • stable-diffusion-webui怎么样增加自己训练的LoRA模型?

    不怕笑话,我曾经为了找这个功能,居然搞了半天时间,结果还没有搞定。 后来再不断地研究各种教程,就是没有发现这个功能,无意间发现有一个人贴了一张图片, 他只是介绍放到这个目录,他没有告诉我这个目录怎么样来的,因为我在同样的位置上没有这个目录。 这样

    2024年04月14日
    浏览(58)
  • Stable Diffusion-webUI ckpt模型、lora模型的区别和使用

    1、CKPT(CheckPoint) 经过训练的图片合集,被称作模型,也就是chekpoint,体积较大,一般真人版的单个模型的大小在7GB左右,动漫版的在2-5个G之间 早期的CKPT后缀名是ckpt,如今新的CKPT后缀名都是safetensors 2、Lora 是一种体积较小的绘画模型,是对大模型的微调。与每次作画只能

    2024年02月02日
    浏览(40)
  • Stable Diffusion+ControlNet+Lora 指导AI+艺术设计的WebUI全流程使用教程

    设计师们往往对于新出的绘画工具上手比较艰难,本文针对目前比较火热的Stable Diffusion+ControlNet指导AI艺术设计的工具使用进行全面讲解。很多人会有预感,未来要么设计师被图形学程序员取代,要么会使用AI工具的设计师取代传统设计师,2023年开始,AI辅助设计甚至主导设计

    2024年02月07日
    浏览(56)
  • [Stable Diffusion]:WEBUI(SD)安装、常用模型(checkpoint、embedding、LORA)、提示词具、常用插件

    1. 安装Stable Diffusion Stable Diffusion的安装可能是第一步,但它绝对是重要的一步。以下是一些安装方式: ● AutoDL: AutoD镜像版本,现在维护到V16。镜像地址:AUTOMATIC1111/stable-diffusion-webui/tzwm_sd_webui_A1111。webui 1.6.0 整合版,支持 SDXL,一键启动,带视频教程。预置 ControlNet v1

    2024年02月04日
    浏览(63)
  • Stable Diffusion WebUI 集成 LoRA模型,给自己做一张壁纸 Ubuntu22.04 rtx2060 6G

    LoRA的全称是LoRA: Low-Rank Adaptation of Large Language Models,可以理解为stable diffusion(SD)模型的一种插件,和hyper-network,controlNet一样,都是在不修改SD模型的前提下,利用少量数据训练出一种画风/IP/人物,实现定制化需求,所需的训练资源比训练SD模要小很多,非常适合社区使用者

    2024年02月12日
    浏览(49)
  • AI绘画Stable DIffusion从lora应用到lora训练:看这一篇就够了

    大家好,我是程序员晓晓 今天给大家介绍一下如何进行Lora训练,制作自己的电子老婆。 在官网的解释说明中: 「A LoRA is a type of training method for fine-tuning Stable Diffusion models.」 什么意思? 这里引入了一个 fine-tuning 概念,也叫做“ 微调 ”训练, 那什么是微调训练呢,假设我

    2024年04月24日
    浏览(53)
  • 【Stable Diffusion WebUI】一篇文章教你如何安装和使用Stable Diffusion WebUI

    1.1 下载 stable-diffusion-webui 1.2 运行 webui.sh 第一次卡住一般是在 Installing gfpgan ,第二次卡住一般是在 Installing open_clip . 如果卡住或者报错,就直接pip install [package] -i https://pypi.tuna.tsinghua.edu.cn/simple 然后在执行 bash webui.sh -i https://pypi.tuna.tsinghua.edu.cn/simple ,一直重复上述过程,直

    2024年02月09日
    浏览(51)
  • 在stable diffusion中如何分辨lora、大模型、controlnet

    Stable Diffusion LoRA 是微软的研究人员为了解决大语言模型 微调 而开发的一项技术,它是一个多模态语言-图像模型,LORA 可以学习将其语言表征迁移到图像 modal 中从而获得跨模态语义一致的表示。LoRA 模型是 Stable-Diffusion 中的一个插件,仅需要少量的数据就可以进行训练的一种模

    2024年04月27日
    浏览(35)
  • 《Stable Diffusion WebUI如何下载模型》

    接上一个教程,现在开始使用Stable Diffusion,自己训练模型太花时间了,直接下载别人训练好的模型可以省很多事。 左上面stable Diffusion checkpoint就是我们的模型,现在里面什么都没有 1、点击选择上面的Civitai   2、这里面有一些模型。如果你想要更多更全的,那就进入网站ci

    2024年02月06日
    浏览(46)
  • Linux上如何使用Stable Diffusion WebUI

    在我把所有的坑都踩了一遍之后,决定记录一下linux上的Stable Diffusion webui是怎么搞的。 已安装CUDA 已安装git 已安装Anaconda 直接安装Anaconda不要指望Linux自带的Python。虽然Linux自带的Python,但是缺胳膊少腿,所以还是直接用了conda。 创建并激活进入虚拟环境: conda create -n webui

    2024年02月02日
    浏览(40)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包