【AI绘画】《超入门级教程:训练自己的LORA模型》,MM超爱的萌宠图片实战

这篇具有很好参考价值的文章主要介绍了【AI绘画】《超入门级教程:训练自己的LORA模型》,MM超爱的萌宠图片实战。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。


前言

SD-Trainer:是stable diffusion进行lora训练的webui,有了SD-Trainer,只需要少许图片,每个人都能够方便快捷地训练出属于自 己的stable diffusion模型,可以让图片按照你的想法进行呈现。

一、SD-Trainer webui使用介绍

  • SD-Trainer:是stable diffusion进行lora训练的webui,有了SD-Trainer,只需要少许图片,每个人都能够方便快捷地训练出属于自 己的stable diffusion模型,可以让图片按照你的想法进行呈现。
  • LoRA:英文全称Low-Rank Adaptation of Large Language Models,意为"大型语言模型的低秩自适应算法"。它是一种用于优化大型语言模型的算法,通过在训练过程中对模型进行低秩分解和自适应优化,可以显著提高语言模型的效果和性能。它是微软的研究人员为了解决大语言模型微调而开发的一项技术。

二、准备工作

2-1、登录在线训练平台

选择合适的训练平台:如果您还没有选择平台,这里我们推荐揽睿星舟平台,以下步骤以在揽睿星舟操作为例。
【AI绘画】《超入门级教程:训练自己的LORA模型》,MM超爱的萌宠图片实战,ChatGPT,AI绘画,算法,AI作画,原力计划

2-2、购买算力并创建工作空间

  • 新用户拥有两个小时的免费算力,选择3090
  • 镜像选择平台提供的镜像,即公有镜像-others-sd-trainer-1.1.0
  • 其他默认即可
    【AI绘画】《超入门级教程:训练自己的LORA模型》,MM超爱的萌宠图片实战,ChatGPT,AI绘画,算法,AI作画,原力计划
    【AI绘画】《超入门级教程:训练自己的LORA模型》,MM超爱的萌宠图片实战,ChatGPT,AI绘画,算法,AI作画,原力计划

2-3、启动工作空间

  • 点击启动,等待几分钟后,即可进入。
  • 如果遇到网络问题,建议调试网络后选择重新启动(不会扣除费用)
  • 根据个人习惯选择合适的ide,这里我选择使用vs code。
    【AI绘画】《超入门级教程:训练自己的LORA模型》,MM超爱的萌宠图片实战,ChatGPT,AI绘画,算法,AI作画,原力计划
    【AI绘画】《超入门级教程:训练自己的LORA模型》,MM超爱的萌宠图片实战,ChatGPT,AI绘画,算法,AI作画,原力计划

三、开始训练

3-1、打开终端

  • 在打开页面后,点击Terminal-New Terminal来启动终端。
    【AI绘画】《超入门级教程:训练自己的LORA模型》,MM超爱的萌宠图片实战,ChatGPT,AI绘画,算法,AI作画,原力计划

3-2、准备训练数据

训练数据:要求是若干张待训练的图片以及其描述文字,这里我们选用huggingface上的公开数据集,四张可爱狗狗的照片:https://huggingface.co/datasets/diffusers/dog-example/tree/main,也可以打开其父级目录查找其他照片组合。
注意事项:为每张图片准备一段仅一行的文本描述,存入txt或caption文件。一张图片对应一个文本文件。描述文字的命名需和 图片一致,如1.jpg的描述文字为1.caption或1.txt。
【AI绘画】《超入门级教程:训练自己的LORA模型》,MM超爱的萌宠图片实战,ChatGPT,AI绘画,算法,AI作画,原力计划
如图所示
【AI绘画】《超入门级教程:训练自己的LORA模型》,MM超爱的萌宠图片实战,ChatGPT,AI绘画,算法,AI作画,原力计划

新建文件夹(将图片以及其描述文字放入)

mkdir -p /ark-contexts/data/sd_train_dataset/img /ark-contexts/data/sd_train_dataset/log /ark-contexts/data/sd_train_dataset/model

在img目录下新建文件,其中xx是数字,代表训练步数,XXXXX为自定义名称,本例中设为10_item,并将图片和描述文字放入该文件夹中

cd /ark-contexts/data/sd_train_dataset/img
mkdir 10_item

把准备好的训练数据放入上述文件夹。检查最终训练数据文件夹结构为:
【AI绘画】《超入门级教程:训练自己的LORA模型》,MM超爱的萌宠图片实战,ChatGPT,AI绘画,算法,AI作画,原力计划

3-3、准备模型文件

3-3-1、模型

这里我们需要准备两个模型(先看下边的下载方法)

  • clip-vit-large-patch14
    第一个需要下载的模型 clip-vit-large-patch14,是我们需要从https://huggingface.co/openai/clip-vit-large-patch14 自行下载模型文件,上传到/ark-contexts/data/huggingface/hub/models–openai–clip-vit-large-patch14/snapshots/8d052a0f05efbaefbc9e8786ba291cfdf93e5bff 文件夹下。
    【AI绘画】《超入门级教程:训练自己的LORA模型》,MM超爱的萌宠图片实战,ChatGPT,AI绘画,算法,AI作画,原力计划
    最终文件夹的结构为:
    【AI绘画】《超入门级教程:训练自己的LORA模型》,MM超爱的萌宠图片实战,ChatGPT,AI绘画,算法,AI作画,原力计划

  • stable-diffusion-v1-5
    第二个需要下载的模型是stable-diffusion-v1-5,我们需要从https://huggingface.co/runwayml/stable-diffusion-v1-5上下载模型,
    【AI绘画】《超入门级教程:训练自己的LORA模型》,MM超爱的萌宠图片实战,ChatGPT,AI绘画,算法,AI作画,原力计划

3-3-2、下载方法(以下两种方法任选一种即可)

一、直接使用命令下载(这里以clip-vit-large-patch14为例):

# 打开上图中的clone repository后,有如下命令
git lfs install
# 先安装好lfs,后边如果这一句报错可能是没有+sudo。
git clone https://huggingface.co/openai/clip-vit-large-patch14

注意:这里没有lfs,需要自行安装

  • 使用lscpu命令查看架构。
    【AI绘画】《超入门级教程:训练自己的LORA模型》,MM超爱的萌宠图片实战,ChatGPT,AI绘画,算法,AI作画,原力计划
  • 下载对应的版本https://github.com/git-lfs/git-lfs/releases,下拉找到对应版本。
    【AI绘画】《超入门级教程:训练自己的LORA模型》,MM超爱的萌宠图片实战,ChatGPT,AI绘画,算法,AI作画,原力计划

【AI绘画】《超入门级教程:训练自己的LORA模型》,MM超爱的萌宠图片实战,ChatGPT,AI绘画,算法,AI作画,原力计划

  • 下载安装包后上传到服务器上并且进行解压(小文件直接拖拽上传即可,大文件需要在安装好lfs后再进行安装)
tar -zxvf git-lfs-linux-amd64-v2.9.0.tar.gz
  • 解压后打开文件夹,使用命令执行安装文件
sudo ./install.sh

二、使用网盘来从本地上传(针对大文件上传)

参考官方文档:https://paritybit-us.gitbook.io/lan-rui-xing-zhou/yong-hu-shou-ce/zui-jia-shi-jian/shang-chuan-wang-pan-de-xiao-miao-zhao这里需要注意的是,记得更改端口号为443。
【AI绘画】《超入门级教程:训练自己的LORA模型》,MM超爱的萌宠图片实战,ChatGPT,AI绘画,算法,AI作画,原力计划

3-4、启动SD-Trainer

cd /app/lora-scripts
sudo sh run_gui.sh --host 0.0.0.0 --port 27777 --tensorboard-host 0.0.0.0

运行成功后我们需要在工作空间复制调试地址,在浏览器粘贴地址并且跳转,就可以进入训练界面了
【AI绘画】《超入门级教程:训练自己的LORA模型》,MM超爱的萌宠图片实战,ChatGPT,AI绘画,算法,AI作画,原力计划

3-5、开始训练

训练界面如下所示,可以选择新手或专家两种模式,新手模式暴露的参数更少。本例使用专家模式:需要修改的参数为:

  • 底模路径:使用的是我们刚才下载的模型stable-diffusion-v1-5中的文件v1-5-pruned.ckpt,我这里的路径是/ark-contexts/data/sd_train_dataset/v1-5-pruned.ckpt

  • train_data_dir:使用到的是训练数据集的路径,我这里的路径是/ark-contexts/data/sd_train_dataset/img
    【AI绘画】《超入门级教程:训练自己的LORA模型》,MM超爱的萌宠图片实战,ChatGPT,AI绘画,算法,AI作画,原力计划

  • 模型保存名称(可选):更改模型名称

  • 模型保存路径(可选):更改模型保存路径
    【AI绘画】《超入门级教程:训练自己的LORA模型》,MM超爱的萌宠图片实战,ChatGPT,AI绘画,算法,AI作画,原力计划
    其他配置自行选择,配置完成后,可以点击开始训练,我们可以在之前的终端中监控模型的训练结果。
    【AI绘画】《超入门级教程:训练自己的LORA模型》,MM超爱的萌宠图片实战,ChatGPT,AI绘画,算法,AI作画,原力计划
    训练过程中可能会遇到的问题

  • 文件夹中没有模型:检查设置的文件夹中是否存在对应模型

  • 模型没有下载完全:可能是没有安装lfs导致的,Git LFS (Large File Storage) - 是Git源代码管理系统的一个扩展程序,可处理大型二进制文件的版本控制,在传输大型文件时需要首先安装lfs。
    【AI绘画】《超入门级教程:训练自己的LORA模型》,MM超爱的萌宠图片实战,ChatGPT,AI绘画,算法,AI作画,原力计划
    如图所示即为训练后的模型,模型保存在当前目录下的./output/aki.safetensors
    【AI绘画】《超入门级教程:训练自己的LORA模型》,MM超爱的萌宠图片实战,ChatGPT,AI绘画,算法,AI作画,原力计划

总结:折腾的时间比我想象的长,但比起自己部署整个环境,云端训推还是香啊,想练练手的可以试试先薅个2小时羊毛注册链接


参考文章:
linux安装git lfs
git-lfs
stable-diffusion-v1-5
参考B站Up文章来源地址https://www.toymoban.com/news/detail-622401.html

到了这里,关于【AI绘画】《超入门级教程:训练自己的LORA模型》,MM超爱的萌宠图片实战的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • AI绘画Stable DIffusion从lora应用到lora训练:看这一篇就够了

    大家好,我是程序员晓晓 今天给大家介绍一下如何进行Lora训练,制作自己的电子老婆。 在官网的解释说明中: 「A LoRA is a type of training method for fine-tuning Stable Diffusion models.」 什么意思? 这里引入了一个 fine-tuning 概念,也叫做“ 微调 ”训练, 那什么是微调训练呢,假设我

    2024年04月24日
    浏览(52)
  • 训练自己的个性化Stable diffusion模型,LORA

    需要训练自己的LORA模型 1、有sd-webui有训练插件功能 2、有单独的LORA训练开源web界面 两个开源训练界面 1、秋叶写的SD-Trainer https://github.com/Akegarasu/lora-scripts/  没成功,主要也是cudnn和nvidia-smi中的CUDA版本不一致退出 2、 Kohya\\\'s GUI GitHub - bmaltais/kohya_ss    成功了 遇到问题1, cudn

    2024年02月04日
    浏览(59)
  • Stable Diffusion:使用自己的数据集微调训练LoRA模型

    由于本人水平有限,难免出现错漏,敬请批评改正。 更多精彩内容,可点击进入YOLO系列专栏、自然语言处理 专栏或我的个人主页查看 基于DETR的人脸伪装检测 YOLOv7训练自己的数据集(口罩检测) YOLOv8训练自己的数据集(足球检测) YOLOv5:TensorRT加速YOLOv5模型推理 YOLOv5:I

    2024年02月12日
    浏览(84)
  • 【在线AI绘画平台】哩布AI 在线生成图片、训练Lora、上传AI生成图简易实测

    网址 https://www.liblib.ai/ | 在线生成 https://www.liblib.ai/sd 网址 https://www.liblib.ai/ 显示的模型,每个模型点开后,会有相关的资源、生成的图集 侧边栏可收起 1.2.1 按模型筛选相关 Textual Inversion Hypernetwork Aesthetic Gradient LORA 、LyCORIS Controlnet Poses Wildcards Other 基础算法 基础算法 v1.5 基

    2024年02月05日
    浏览(47)
  • 快速训练自己的大语言模型:基于LLAMA-7B的lora指令微调

    前言: 系统:ubuntu 18.04 显卡:A100-80G(蹭的,嘿嘿~) (本次主要记录如何快速进行大模型的指令微调) 地址:https://github.com/Lightning-AI/lit-llama 切换到工程目录 使用pip安装依赖库 (当然,这里可能会遇到网络问题,安装不了lightning) 可使用以下方式安装: 下载lightning工程

    2024年02月11日
    浏览(56)
  • stable-diffusion-webui怎么样增加自己训练的LoRA模型?

    不怕笑话,我曾经为了找这个功能,居然搞了半天时间,结果还没有搞定。 后来再不断地研究各种教程,就是没有发现这个功能,无意间发现有一个人贴了一张图片, 他只是介绍放到这个目录,他没有告诉我这个目录怎么样来的,因为我在同样的位置上没有这个目录。 这样

    2024年04月14日
    浏览(57)
  • 基于chatGLM-6B模型预训练,添加自己的数据集微调(linux版)(ptuning & lora)

    目录 准备工作 安装7z ptuning预训练 ChatGLM-6B-Ptuning.7z 懒人包下载 上传文件并解压缩 拉取依赖 进行训练 启动服务 注意事项(揽睿星舟云算力平台) lora预训练 chatGLM-All-In-One.7z 懒人包下载 上传文件并解压缩 拉取依赖 进行训练 启动服务 注意事项(揽睿星舟云算力平台) 展示

    2024年02月07日
    浏览(76)
  • AI绘画——Lora模型 小人书·连环画 xiaorenshu

    目录 小人书·连环画 使用说明: Instructions for v1.5: Instructions for v1.0:  下载地址 模型演示(多图预警) Night Sky YOZORA Model 模型 +Lora模型xiaorenshu  pastel-mix模型+pastel-waifu-diffusion.vae模型+Lora模型xiaorenshu 和 沁彩 一样,本模型也会不断完善,请期待后续各种风格的版本! Like  Co

    2024年02月01日
    浏览(52)
  • 【AI绘画】Stable Diffusion学习——入门教程和模型介绍(二)

    Stable Diffusion Web UI界面参数说明: Stable Diffusion 模型俗称大模型(Checkpoint),是最重要的模型,有它才可以生成图像,用于确立基本画风。 文件的存放路径: 根目录modelsStable-diffusion 推荐两个大模型 ① Stable Diffusion开源的1.5版本模型(偏真实风格) 模型下载地址:https://

    2024年01月18日
    浏览(46)
  • LoRa模型训练教程(炼丹,Stable Diffusion)

    何为LoRA?LoRA并不是扩散模型专有的技术,而是从隔壁语言模型(LLM)迁移过来的,旨在解决避免将整个模型参数拷贝下来才能对模型进行调校的问题。因为大型语言模型的参数量过于恐怖,比如最近新出的GPT-4参数量约为100 万亿。 LoRA采用的方式是向原有的模型中插入新的数

    2024年02月10日
    浏览(42)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包