stable-diffusion打造自己的lora模型(使用lora-scripts)

这篇具有很好参考价值的文章主要介绍了stable-diffusion打造自己的lora模型(使用lora-scripts)。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

1、训练图片收集

比如要训练一个自己头像的模型,就可以拍一些自己的照片(20-50张,最少15张),要求画质清晰,脸部轮廓清楚,背景较为简单的照片。

2、使用stable_diffusion的预处理功能进行图片的预处理

lora-scripts环境配置,AIGC,stable diffusion

这里可以根据自己的情况设置不同的宽高,以及相关的设置项,设置完成之后,点击“预处理”就可以进行图像的预处理了,预处理进度会在右侧显示。处理完成之后的文件夹内文件统一转成了512*512的png格式,并且多了一个txt文件,这个文件里面就是图片内容的提示词。

lora-scripts环境配置,AIGC,stable diffusion

3、lora-scripts环境搭建

 (1)先将lora-scripts项目(GitHub - Akegarasu/lora-scripts: LoRA training scripts use kohya-ss's trainer, for diffusion model.https://github.com/Akegarasu/lora-scripts)克隆到本地,可以放在stable-diffusion下面,也可以放在其他目录下面。

(2)克隆完之后,进入该目录删除sd-scripts文件夹,然后克隆sd-scripts项目(GitHub - kohya-ss/sd-scriptshttps://github.com/kohya-ss/sd-scripts)到该目录下。

(3)安装环境,有两种方式。一种是在lora-scripts下直接执行./install.ps1命令,自动安装相关环境。另外一种是进入到lora-scripts/sd-scripts中,使用以下命令进行安装(可以参考该项目下的说明文档)。

# 创建并激活虚拟环境
python -m venv venv
.\venv\Scripts\activate

# 安装cuda
pip install torch==1.12.1+cu116 torchvision==0.13.1+cu116 --extra-index-url https://download.pytorch.org/whl/cu116

# 安装相关包,可以加上 -i 国内源 快一点儿!
pip install --upgrade -r requirements.txt

# 安装xformers,这里可以先用下载工具把文件下载下来,用本地路径安装,不然网络不稳定很容易中断
pip install -U -I --no-deps https://github.com/C43H66N12O12S2/stable-diffusion-webui/releases/download/f/xformers-0.0.14.dev0-cp310-cp310-win_amd64.whl

# 复制相关文件到虚拟环境
cp .\bitsandbytes_windows\*.dll .\venv\Lib\site-packages\bitsandbytes\
cp .\bitsandbytes_windows\cextension.py .\venv\Lib\site-packages\bitsandbytes\cextension.py
cp .\bitsandbytes_windows\main.py .\venv\Lib\site-packages\bitsandbytes\cuda_setup\main.py

# 加速器配置
accelerate config

这里要注意的是,cuda和xformers的版本这里是对应好的,如果版本不对会报错。另外,后面的相关操作都是在venv的虚拟环境下操作的,所以如果重新进入的话,需要重新激活虚拟环境。

accelerate config这个命令进入之后,对于多项选择的可以用上下键,或者使用(0,1,2...)去选择相关的选项,yes or no的直接输入然后回车,大部分配置项选择默认就可以了,我这里没有使用DeepSpeed,所以这一项,我选择的No,根据自己的实际情况去选就行了,不知道啥意思的可以挨个查下。

 4、准备训练

训练有两种方式,方式一:直接执行训练命令(执行 ./train.ps1),方式二:使用webui的方式(执行 ./run_gui.ps1 打开web页面)。

(1)将预处理过的图片目录(qige)拷贝到lora-scripts/train/qg_imgs目录下(train目录不存在可以新建一个,这里要注意,图片和文本存放的最终目录是lora-scripts/train/qg_imgs/qige)

(2)修改配置。

方式一,直接修改train.ps1文件,修改以下配置

# Train data path | 设置训练用模型、图片
$pretrained_model = "./sd-models/chilloutmix_NiPrunedFp32Fix.safetensors" # base model path | 底模路径
$train_data_dir = "./train/qg_imgs" # train dataset path | 训练数据集路径



# Train related params | 训练相关参数
$resolution = "512,512" # image resolution w,h. 图片分辨率,宽,高。支持非正方形,但必须是 64 倍数。
$batch_size = 2 # batch size
$max_train_epoches = 20 # max train epoches | 最大训练 epoch
$save_every_n_epochs = 2 # save every n epochs | 每 N 个 epoch 保存一次



$output_name = "qg" # output model name | 模型保存名称

chilloutmix_NiPrunedFp32Fix.safetensors 的下载地址为:naonovn/chilloutmix_NiPrunedFp32Fix at mainWe’re on a journey to advance and democratize artificial intelligence through open source and open science.https://huggingface.co/naonovn/chilloutmix_NiPrunedFp32Fix/tree/main也可以使用其他的模型,上面的模型地址也可以改成stable-diffusion中已有的模型路径,可以节约点儿磁盘空间,毕竟单个模型都是好几个G。另外这个目录设置要注意,不是到最后那一层的目录,是到最后一层的上一层目录。

方式二,直接在webui上设置,比较直观

lora-scripts环境配置,AIGC,stable diffusion

5、开始训练

 如果使用的是方式二,可以直接点击右侧的“直接开始训练”按钮就可以开始训练,与方式一一样,相关的输出信息可以在命令行终端上看到。一般不会一下就成功,可以根据相关的报错信息进行修改。我用的是3060的显卡,之前将batch_size和max_train_epoches设置得较大,中途会出现显存不够用的情况,然后逐步调整,才最终跑完。训练的过程见下图。

lora-scripts环境配置,AIGC,stable diffusion

最后会在output目录中,输出训练好的模型文件。

6、模型使用

将训练好的模型.safetensors文件拷贝到stable-diffusion文件夹下的models/lora/文件夹下,在提示词中加入<lora:训练的模型:权重>就可以生成自己的图像了,效果还行。如果用更多图片,有更强悍的机器,训练出来的效果应该会更好...

lora-scripts环境配置,AIGC,stable diffusion

 文章来源地址https://www.toymoban.com/news/detail-778309.html

 

到了这里,关于stable-diffusion打造自己的lora模型(使用lora-scripts)的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 【stable-diffusion】4090显卡下dreambooth、lora、sd模型微调的GUI环境安装(cuda驱动、pytorch、xformer)

    相关博文 stable-diffusion-webui的基础功能手动安装,了解代码结构、依赖、模型出处 cuda11.7下载-https://developer.nvidia.com/cuda-toolkit-archive cudnn8.6 for 11.x : https://developer.nvidia.com/rdp/cudnn-archive dreamboothlora 训练环境: 最原始的命令端 https://github.com/kohya-ss/sd-scripts GUI端口 https://github.co

    2024年02月06日
    浏览(117)
  • stable-diffusion-webui怎么样增加自己训练的LoRA模型?

    不怕笑话,我曾经为了找这个功能,居然搞了半天时间,结果还没有搞定。 后来再不断地研究各种教程,就是没有发现这个功能,无意间发现有一个人贴了一张图片, 他只是介绍放到这个目录,他没有告诉我这个目录怎么样来的,因为我在同样的位置上没有这个目录。 这样

    2024年04月14日
    浏览(58)
  • 3 任务3 使用趋动云部署自己的stable-diffusion

    1.进入趋动云用户工作台,选择: 当前空间 ,请确保当前所在空间是注册时系统自动生成的空间。 a.非系统自动生成的空间,没有赠送的算力金 2.点击:快速创建,选择创建项目,创建新项目。 3,填写相关的项目信息,镜像及数据集选择如下。 4.待项目信息完善后,点击确定

    2024年02月04日
    浏览(53)
  • Stable Diffusion WebUI 集成 LoRA模型,给自己做一张壁纸 Ubuntu22.04 rtx2060 6G

    LoRA的全称是LoRA: Low-Rank Adaptation of Large Language Models,可以理解为stable diffusion(SD)模型的一种插件,和hyper-network,controlNet一样,都是在不修改SD模型的前提下,利用少量数据训练出一种画风/IP/人物,实现定制化需求,所需的训练资源比训练SD模要小很多,非常适合社区使用者

    2024年02月12日
    浏览(48)
  • Stable-Diffusion|文生图 拍立得纪实风格的Lora 图例(三)

    最开始 Stable-Diffusion|window10安装GPU版本的 Stable-Diffusion-WebUI遇到的一些问题(一) 上篇【Stable-Diffusion|入门怎么下载与使用civitai网站的模型(二)】介绍了如何使用c站进行文生图,尤其一些Lora可能随时会下架,所以及时测试,及时保存很关键,更新一些笔者目前尝试比较有意

    2024年02月09日
    浏览(55)
  • 【stable-diffusion使用扩展+插件和模型资源(上】

    个人网站: https://tianfeng.space 距离上次模型使用和插件推荐已经挺久了,所以必须再写一期来扩展使用方法了,毕竟得与时俱进,趁着这两天有空,赶紧写,写全点。上期模型插件使用方法和推荐 1.qrcode-monster qrcode-monster是一款controlnet模型,可以生成创意二维码,还可以通过

    2024年02月12日
    浏览(49)
  • 【stable-diffusion使用扩展+插件和模型资源(下)】

    插件模型魔法图片等资源:https://tianfeng.space/1240.html 1.lobe theme lobe theme是一款主题插件,直接可以在扩展安装 界面进行了重新布局,做了一些优化,有兴趣的可以下载试试,右上角设置按钮,第一行就是语言设置,还有颜色等等 2.SadTalker https://github.com/OpenTalker/SadTalker 基于最

    2024年02月11日
    浏览(73)
  • 【stable-diffusion史诗级讲解+使用+插件和模型资源】

    前言 以后所有资源模型,都在这个网址公布:https://tianfeng.space/1240.html 要不然东一个西一个难找麻烦 安装:stable diffusion 小白最全详细使用教程 模型最终版:https://blog.csdn.net/weixin_62403633/article/details/131089616?spm=1001.2014.3001.5501 如果安装或者使用有问题,欢迎评论区留言,CSD

    2024年02月09日
    浏览(63)
  • AI绘画 | stable-diffusion的模型简介和下载使用

    我们下载完stable-diffusion-ui后还需要下载需要的大模型,才能进行AI绘画的操作。秋叶的stable-diffusion-ui整合包内,包含了anything-v5-PrtRE.safetensors和Stable Diffusion-V1.5-final-prune_v1.0.ckpt两个模型。 anything-v5-PrtRE.safetensors模型可以用于生成多种类型的图像,包括肖像、风景、动物、卡通

    2024年02月04日
    浏览(90)
  • Stable Diffusion 使用lora-scripts WebUI训练LoRA模型

    如果对代码使用有困难的小伙伴可以直接使用WebUI版的LoRA模块进行训练操作。不管是训练人物,场景,风格,还是服装都是一套通用的模式,仅仅是使用不同的数据集得到的结果不同。 使用 git clone --recurse-submodules https://gi

    2024年02月17日
    浏览(51)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包