[linux-sd-webui]api化之训练lora

这篇具有很好参考价值的文章主要介绍了[linux-sd-webui]api化之训练lora。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

lora的训练使用的文件是https://github.com/Akegarasu/lora-scripts

lora训练是需要成对的文本图像对的,需要准备相应的训练数据。

1.训练数据准备

使用deepbooru/blip生成训练数据,建筑类建议使用blip来生成。

2.lora在linux上环境

cuda 10.1 p40 python3.7

accelerate==0.15.0 应该只能在虚拟环境中,在train.sh中把accelerate launch --num_cpu_threads_per_process=8换成python,这么改accelerate多卡训练有问题

albumentations==0.2.0

scikit-image==0.14 版本高了会报错

numpy==1.17

这里面有个skimage的版本问题,会报错

[bug解决] cannot import name ‘_validate_lengths‘ from ‘numpy.lib.arraypad‘_arrycrop.py在那_Harry嗷的博客-CSDN博客

safetensors==0.3.0

voluptuous==0.12.1

huggingface-hub==0.12.0

transformers==4.20.0

tokenizers==0.11.6

opencv-python==4.0.0.21

einops==0.3.0

ftfy==6.0

pytorch-lightning==1.2.8

xformers==0.0.9(torch可以支持torch==1.8.1)

diffusers==0.10.0

pyre-extensions==0.3.0

regex==2021.4.4

升级glic

3.sh train.sh训练

openai的clip权重要配置一下

library/train_util/ 1900多行中load_tokenizer函数中的tokenizer=CLIPTokenizer.from_pretrained()

使用的是openai的clip-vit-large-patch14参数

4.lora-scripts的核心代码解析

train_network.py->train->
train_util.load_tokenizer->
BuleprintGenerator->
config_util.generate_dreambooth_subsets_config_by_subdirs->
blueprint_generator.generate->
config_util.generate_dataset_group_by_blueprint 加载数据->
train_util.prepare_accelerator->
train_util.prepare_dtype->
train_util.load_target_model 加载sd模型->
train_util.replace_unet_modules-> 
vae.to(accelerator.device)->
vae.requires_grad_(False)->
vae.eval()->
train_dataset_group.cache_lantents->
network_module(LoRANetwork)->
network.apply_to(text_encoder,unet,train_text_encoder,train_unet)->
network.prepare_optimizer_params->
train_util.get_optimizer->
train_dataloader=torch.utils.data.DataLoader(train_dataset_group)->
lr_scheduler=train_util.get_scheduler_fix->
unet,text_encoder,network,optimizer,train_dataloader,lr_scheduler=accelerator.prepare(unet,text_encoder,network,optimizer,train_dataloader,lr_scheduler)->
unet.requires_grad_(False)->
unet.to(accelerator.device)->
text_encoder.requires_grad_->
text_encoder.to(accelerator-device)->
unet.eval()->
text_encoder.eval()->
network.prepare_grad_etc(text_encoder,unet)->
dataset=train_dataset_group.dataset[0]->
noise_scheduler=DDPMScheduler(beta_start=0.00085,beta_end=0.012,beta_schedule='scaled_linear',num_train_timesteps=1000,clip_sample=False)->
accelerator.init_trackers('netwoek_train')->
network.on_epoch_start(text_encoder,unet)->
latents=batch['latents'].to(accelerator.device)->
latents=latents*0.18215->
encoder_hidden_states=train_util.get_hidden_states->
noise = torch.randn(latents,device=latent.device)->
timesteps=torch.randint(0,noise_scheduler.config.num_train_timesteps,(b_size,),device=latents.device)->
noise_latents=noise_scheduler.add_noise(lantents,noise,timesteps) [1,4,64,64]->
noise_pred=unet(noisy_latents,timesteps,encoder_hidden_states).sample [1,4,64,64]->
target=noise_scheduler.get_velocity(latnets,noise,timesteps) [1,4,64,64]->
loss=torch.nn.functional.mse_loss(noise_pred.float(),target.float(),reduction='none') [1,4,64,64]->
loss=loss.mean([1,2,3])->
loss_weights=batch['loss_weights']->
loss=loss*loss_weights->
accelerator.backward(loss)->
param_to_clip=network.get_trainable_params()->
accelerator.clip_grad_norm_()->
optimizer.grad()->
lr_scheduler.step()->
optimizer.zero_grad()->
train_util.sample_images(accelerator,args,None,global_step,accelerator.device,vae,tokenizer,text_encoder,unet)

5.入参

args = Namespace(
bucket_no_upscale=False, 
bucket_reso_steps=64, 
cache_latents=True, 
caption_dropout_every_n_epochs=0, 
caption_dropout_rate=0.0,
caption_extension='.txt',
caption_extention=None, 
caption_tag_dropout_rate=0.0, 
clip_skip=2, 
color_aug=False, 
dataset_config=None, 
dataset_repeats=1, 
debug_dataset=False, 
enable_bucket=True, 
face_crop_aug_range=None, 
flip_aug=False, 
full_fp16=False, 
gradient_accumulation_steps=1, 
gradient_checkpointing=False, 
in_json=None, 
keep_tokens=0, 
learning_rate=0.0001, 
log_prefix=None, 
logging_dir='./logs', 
lowram=False, 
lr_scheduler='cosine_with_restarts', 
lr_scheduler_num_cycles=1, 
lr_scheduler_power=1, 
lr_warmup_steps=0, 
max_bucket_reso=1024, 
max_data_loader_n_workers=8, 
max_grad_norm=1.0, 
max_token_length=225, 
max_train_epochs=10, 
max_train_steps=1600, 
mem_eff_attn=False, 
min_bucket_reso=256, 
mixed_precision='fp16', 
network_alpha=32.0, 
network_args=None, 
network_dim=32, 
network_module='networks.lora', 
network_train_text_encoder_only=False, 
network_train_unet_only=False, 
network_weights=None, 
no_metadata=False, 
noise_offset=0.0, 
optimizer_args=None, 
optimizer_type='', 
output_dir='./output', 
output_name='/home/sniss/local_disk/lora-scripts/output', 
persistent_data_loader_workers=False, 
pretrained_model_name_or_path='/home/sniss/local_disk/stable-diffusion-webui_23-02-17/models/Stable-diffusion/sd-v1.5.ckpt', 
prior_loss_weight=1.0, 
random_crop=False, 
reg_data_dir=None, 
resolution=(512, 512), 
resume=None, 
sample_every_n_epochs=None,
sample_every_n_steps=None, 
sample_prompts=None, 
sample_sampler='ddim', 
save_every_n_epochs=2,
save_last_n_epochs=None, 
save_last_n_epochs_state=None, 
save_model_as='ckpt', 
save_n_epoch_ratio=None, 
save_precision='fp16', 
save_state=False, 
seed=1337, 
shuffle_caption=True, 
text_encoder_lr=1e-05,
tokenizer_cache_dir=None, 
train_batch_size=1, 
train_data_dir='/home/sniss/local_disk/lora-scripts/data', 
training_comment=None, 
unet_lr=0.0001, 
use_8bit_adam=False, 
use_lion_optimizer=False, 
v2=False, 
v_parameterization=False, 
vae=None, 
xformers=True)

参数的设置有好几块:

1.输入的train.sh

2.train_network.py中的main部分

3.train_util.py中的1536行附近的

add_sd_models_args/add_optimizer_args/add_training_args/add_dataset_args

6.注意事项

a.数据集名称第一个是数字20_arch,这个数字和训练轮数epoch有关

b.train_network中

PyTorch 训练时中遇到的卡住停住等问题_训练时候卡住_yyywxk的博客-CSDN博客- 问题描述使用 PyTorch 框架训练模型,训练第一个 epoch 时,在最后一个 batch 处卡死,卡了一天都没有动弹,而 CPU 和 GPU 都处于正常运行的状态,程序也没有报错,并且之前训练一直都是正常的。最终,只能通过 Ctrl+C 强制性暂停。如下图所示。- 可能的原因搜索文章发现,有人出现这种问题是和 cv2.imread 有关,用 OpenCV 的接口进行数据读取,而没有用 PIL,导致出现 OpenCV与Pytorch互锁的问题,关闭OpenCV的多线程即可解决问题1 2。但https://blog.csdn.net/yyywxk/article/details/106323049在args.max_data_loader_n_workers改为0

c.max_token_length=75,150,225,使用225会报错?RuntimeError: The size of tensor a (227) must match the size of tensor b (77) at non-singleton dimension 1,这块是个巨坑,主要是clip初始化的时候,忘了加tokenizer_config.json这个文件。

d.bash: accelerate: command not found,没搞定

多卡训练文章来源地址https://www.toymoban.com/news/detail-415685.html

python -m torch.distributed.launch --nproc_per_node=4 --nnodes=1 --node_rank=0 --master_addr=localhost   --master_port=22222 --use_env "./sd-scripts/train_network.py" \

import torch.distributed as dist 
dist.init_process_group(backend='gloo', init_method='env://')

到了这里,关于[linux-sd-webui]api化之训练lora的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • SD-WebUI 安装方案

    此教程参考了 crosstyan 的 FAQ WebUI 的官方代码仓库地址为 GitHub - AUTOMATIC1111/stable-diffusion-webui: Stable Diffusion web UI 官方英文安装教程 官方给定的依赖列表 最低需要显存 2 GB,建议显存不少于 4 GB。 在开始前,打开 CMD,输入 cmd 查看机器的英伟达显卡是否正常运作。 这里是 9 月

    2024年02月06日
    浏览(77)
  • sd-webui安装comfyui扩展

    这篇文章主要给大家介绍如何在 sd-webui 中来安装 ComfyUI 插件 ComfyUI ComfyUI 是一个基于 节点流程式 的stable diffusion的绘图工具,它集成了stable diffusion的 substance designer 功能, 通过将stable diffusion的流程拆分成节点,实现了更加精准的工作流定制和完善的可复现性 由于 ComfyUI 针对

    2024年02月08日
    浏览(30)
  • AI绘画指南 stable diffusion webui (SD webui)如何设置与使用

    根据自己最近的理解与实践,只能说是给后来的AI绘画作画者一点快速上手入门的参考吧。 主要是涉及 SD webui 界面介绍 参数含义及调整,txt2img 怎么设置特征点,img2img 怎么完善原始图像等内容。 SD webui 的默认地址为  127.0.0.1:7860 目前有中文界面了,下文将以中文版为主,结

    2024年02月04日
    浏览(39)
  • [SD] stable diffusion webui forge 安装

    How to install SD Forge - Stable Diffusion Art stable diffusion webui forge 是 stable diffusion webui 的定制版,其主要面向快速图像生成。

    2024年03月20日
    浏览(46)
  • roop换脸最简单sd-webui教程

      通过stable diffussion webui项目进行roop换脸 安装roop插件,在文生图和图生图都可以使用roop插件换脸 换脸的原理是检测到原图的脸,替换为你放在roop插件里人脸 1、在Extensions-install from url GitHub - s0md3v/sd-webui-roop: roop extension for StableDiffusion web-ui 点击install 2、关键 安装roop模型,

    2024年02月19日
    浏览(27)
  • 『SD』Stable Diffusion WebUI 安装插件(以汉化为例)

    点赞 + 关注 + 收藏 = 学会了 Stable Diffusion WebUI 是允许用户自行安装插件的,插件的种类有很多,有将页面翻译成中文的插件,也有提示词补全插件,也有精细控制出图的插件。 以汉化为例, Stable Diffusion WebUI 默认是英文的,我们只需装个汉化插件然后重启一下项目就能把页面

    2024年04月28日
    浏览(34)
  • [环境配置]让sd自动翻译提示词插件sd-webui-prompt-all-in-one安装

    方式一(使用git克隆): 此方法需要你的电脑上安装了 git,如果没有安装,可参考 git 官方文档 进行安装。 打开终端,进入到你的  stable-diffusion-webui  目录下。  使用 git 克隆  sd-webui-prompt-all-in-one  到  stable-diffusion-webuiextensions  目录下。 如果你的终端没有访问Github的

    2024年02月14日
    浏览(31)
  • SD WebUI 扩展:prompt-all-in-one

    sd-webui-prompt-all-in-one 是一个基于 Stable Diffusion WebUI 的扩展,旨在提高提示词/反向提示词输入框的使用体验。它拥有更直观、强大的输入界面功能,它提供了自动翻译、历史记录和收藏等功能,它支持多种语言,满足不同用户的需求,尤其给英文不好但又想玩 AI 绘画的用户带

    2024年02月12日
    浏览(52)
  • SD-WebUI和ComfyUI的局域网访问设置!

    如何通过局域网访问AI绘画软件,这是星球成员提的一个问题,而且两个软件都问到了,我也回答过了。现在把内容整理一下发出来,大家可能用得着。 SD-WebUI和ComfyUI这两个AI绘画工具都是通过浏览器来使用,但是默认情况下并不支持,在其他电脑无法上访问这个网页。 如果

    2024年02月10日
    浏览(127)
  • SD-WebUI视频重绘:TemporalKit+EbsynthUtility避坑指南

    大家好,我是程序员晓晓 AI视频重绘,在当下大家并不陌生。我们的实现方式大致可以分为三种: 第三方平台和discord上转绘,如DomoAI ,GoEnhance AI 等。 优点:效果佳,门槛低。 缺点:需要科学上网,和支付一定的使用费用。 ComfyUI转绘工作流,通过animateDiff 结合CN控制网生成

    2024年04月26日
    浏览(41)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包