1. Lora模型tag
1.1 打tag路径
1.2 打tag准备
还有一个重要的点,就是你想固化的特征不要去打tag,打的tag不是单纯的对图片进行描述,还要考虑到是否是变量, tag尽量都是变量,也就是说是你期望模型生成的时候可以根据你的文字改变的。举个例子,一个红头发女孩,如果tag里面有red hair,AI会认为这个是可变量,后面模型生成的时候你输入white hair就可以生成白发女孩,但如果tag里面没有red hair,AI会认为红发是这个女孩的本身特征是固定的,即使模型后面输入white hair,生成的女孩也只会是红发不会变白发。
如何从零开始训练一个高质量的LoRA模型 - 哔哩哔哩 (bilibili.com)
参考这篇博客对于tag部分的说明。所以总而言之,tag是变量,是未来想灵活调整的可以被替换的内容,如果不想被替换的就不要写。
————————————————
版权声明:本文为CSDN博主「不学能干嘛」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/m0_59805198/article/details/135070297
1.3 分类进行打tag
视频:lora训练教程
2. Lora模型训练核心参数
2.1 步数相关 repeat / epoch / batch_size
2.1.1 image训练集tag文本
2.1.2 repeat
2.1.3 epoch
epoch多轮次比单轮次要好,通过设置可以每轮保存一组模型,多轮次说明有多组模型,得到好概率的可能是比单轮次就一个模型的概率是要高的,epoch一般设置5~10;
epoch=repeat*图片数量
2.1.4 batch_size
取决硬件
同一时间学习几张图片
收敛;AI最终出来的图片跟你的原图有多像,原图越像,收敛越好
batch_size加大,收敛越慢
batch_size要是高,一是可能显存带不动,二是值越高训练越快 越可能学得囫囵吞枣收敛得慢。
BS从1到2,Ir就要*2
2.1.5 total optimization steps(总训练步数)
2.2 速率/质量相关 Ir学习率 / Dim网络维度 / Optimizer优化器
2.2.1 学习率
2.2.2 Network dimension(Dim网络维度)
### 2.2.3 Optimizer(优化器)
3. 参数和模型之间的联动关系
3.1 只调整repeat
3.2 只调整repeat和epoches
3.3 只调整学习率
文章来源:https://www.toymoban.com/news/detail-788356.html
4. 新手参数建议
文章来源地址https://www.toymoban.com/news/detail-788356.html
到了这里,关于Stable Diffusion(SD) Lora模型的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!