AI绘画利器:Stable-Diffusion-ComfyUI保姆级教程

这篇具有很好参考价值的文章主要介绍了AI绘画利器:Stable-Diffusion-ComfyUI保姆级教程。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

AI绘画在今天,已经发展到了炽手可热的地步,相比于过去,无论是从画面精细度,真实性,风格化,还是对于操作的易用性,都有了很大的提升。并且如今有众多的绘画工具可选择。今天我们主要来聊聊基于stable diffusion的comfyUI

comfyUI具有可分享,易上手,快速出图,以及配置要求不高的特点,comfyUI以节点链接的工作流方式进行绘图,对于整个出图流程也更容易理解。因此comfyUI比较适合新手入门

一、主流AI绘画工具

说到AI绘画工具,现在应该能找出很多,比较主流的有Midjourney(简称MJ),Stable Diffusion(简称SD),DallE,文心一格,Leonardo.Ai等等

  • Midjourney:https://www.midjourney.com/

comfyui 添加lora,AI作画,stable diffusion,学习,深度学习,人工智能

Midjourney

  • Stable Diffusion:https://github.com/AUTOMATIC1111/stable-diffusion-webui

comfyui 添加lora,AI作画,stable diffusion,学习,深度学习,人工智能

Stable Diffusion

  • DallE:https://openai.com/dall-e-3

comfyui 添加lora,AI作画,stable diffusion,学习,深度学习,人工智能

DallE

  • 文心一格:https://yige.baidu.com/

comfyui 添加lora,AI作画,stable diffusion,学习,深度学习,人工智能

文心一格

  • Leonardo:https://app.leonardo.ai/

comfyui 添加lora,AI作画,stable diffusion,学习,深度学习,人工智能

Leonardo

我们对主流AI工具做个简单的对比

comfyui 添加lora,AI作画,stable diffusion,学习,深度学习,人工智能

还有一些可白嫖的AI绘画站点,大家也可以自行体验一下:

  1. 1. 神采AI(每月可白嫖100张):https://www.promeai.com/zh-CN

  2. 2. ImageFX:https://aitestkitchen.withgoogle.com/tools/image-fx

  3. 3. Meta AI:https://imagine.meta.com/

不同的绘画工具有不同的优劣势,大家可自行探索最适合自己的工具。本文着重介绍Stable Diffusion ComfyUI

二、SD主流 UI

Stable Diffusion因为其开源特性,有着较高的受欢迎程度,并且基于SD的开源社区及教程、插件等,都是所有工具里最多的。基于SD,有不同的操作界面,可以理解为一个工具的不同客户端。目前主流的操作界面有 WebUI和ComfyUI。

  1. 1. WebUI 优点:界面友好,插件丰富,新手小白基本也能秒上手 缺点:吃显存,对配置要求较高,出图较慢

    comfyui 添加lora,AI作画,stable diffusion,学习,深度学习,人工智能

    WebUI

  2. 2. ComfyUI 优点:性能好,速度快,支持工作流的导入导出分享,对小显存友好(GPU小于3G以下依然可以工作),基于工作流,对出图逻辑理解更清晰 缺点:对新手用户不太友好,有一定学习成本

    comfyui 添加lora,AI作画,stable diffusion,学习,深度学习,人工智能

    ComfyUI

二者各有优缺点,根据自身情况选择即可。我个人更推荐ComfyUI

三、ComfyUI 安装

对于stable-diffusion-webui,我之前有一篇文章有了比较详细的介绍,本文重点介绍ComfyUI的安装部署及使用。

传送门:看完就会!手把手入门开源AI绘图Stable Diffusion

ComfyUI 的节点流程式使用方式,非常便于对SD的绘制过程的理解,并且工作流可以导入导出以及分享,这样对于流程重现以及第三方分享更友好。整体的使用上限更高

详细的安装过程可参考B站详细教程 【【AI绘画】ComfyUI整合包发布!解压即用 一键启动 工作流版界面 超多节点 ☆更新 ☆汉化 秋叶整合包】 https://www.bilibili.com/video/BV1Ew411776J/?share_source=copy_web&vd_source=b8d0b2c4c1a84965a2546f0efe2f5759

1. 安装包说明

ComfyUI 开源地址:https://github.com/comfyanonymous/ComfyUI

对于程序员朋友来说,对于github的使用已经非常熟悉了,但考虑到不熟悉github的读者,以及国内对于github的网络环境的不稳定,除了github的clone之外,也推荐使用秋叶整合包,下载地址放在最后自取

  • • 若使用github自行clone项目,需要git、python等必备环境,适合对github已经git和python环境熟悉的朋友使用

  • • 若使用秋叶整合包,里面包含了所有运行时需要的环境,因此此方法适合所有人,解压即用

2. 安装文件

网盘(文末自取)中包含以下文件

comfyui 添加lora,AI作画,stable diffusion,学习,深度学习,人工智能

安装文件

  1. 1. 旧版本:基本不用管了

  2. 2. 模型:只有基本的大模型,更多的大模型可自行去国外的C站或国内的liblib站点下载

  3. C站:https://civitai.com/

  4. liblib:https://www.liblib.art/

  5. 3. contronet:提供contronet所需模型文件,控图必须下载

  6. 4. 入门工作流:提供基本的入门工作流,导入可直接使用

  7. 5. ComfyUI-aki-v1.2.7.7z:整合包压缩包,下载后解压即可使用

吐槽 :国内网盘都是坑,没有会员就慢慢下吧

3. 安装步骤

不同于傻瓜式的安装步骤,这里需要稍微做一些配置,主要是配置模型路径

    1. 配置模型路径
  • • 这里分两种情况,如果你之前装了webui,并且本身已经下了很多模型了,那么恭喜你,ComfyUI对webui的模型地址做了兼容,可以通过一个配置文件即可与webui共享模型 解压后的根目录,有“extra model_paths.yaml.example”文件,我们对这个文件进行修改

    comfyui 添加lora,AI作画,stable diffusion,学习,深度学习,人工智能

    extra model_paths.yaml.example

    修改完成之后,去掉example后缀,保存为yaml文件即可

  • • 如果你没有装过webui,即首次使用stable diffusion的话,那么直接解压即可,后续下载的模型只需要放在ComfyUI读取的默认路径即可

模型 路径
checkpoint模型(大模型) models/checkpoints/
lora模型 models/loras/
controlNet模型 models/controlnet/
vae模型 models/vae/
  1. 2. 启动

  2. 启动“A 绘世启动器.exe”即可。启动后进行主界面,就可以开始ComfyUI的探索之旅了

若是用github自行安装的朋友,还需要下载“插件管理器”,方便后续安装插件(秋叶整合包已经包含了插件管理器),安装步骤如下 分三步:

  1. 1. 命令行窗口中运行:cd D:\COMFYUI路径XXXX\custom_nodes

  2. 2. 继续运行:git clone https://github.com/ltdrdata/ComfyUI-Manager.git

    1. 重启 ComfyUI

4. 汉化

  • • 整合包可以直接点击右边设置小按钮,并对语言设为中文即可

  • • 非整合包需自行下载汉化插件,通过插件管理器搜索AIGODLIKE-ComfyUI-Translation安装即可,或类似下载插件管理器的方式在custom_nodes下git clone https://github.com/AIGODLIKE/AIGODLIKE-ComfyUI-Translation.git后重启ComfyUI

5. 学习参考

ComfyUI由于工作流的导入导出的便利,使得工作流可以互相分享学习,甚至直接使用。目前有很多工作流分享的站点,可以通过导入其他人的工作流进行学习和实践,对自身学习会非常有帮助

  • ComfyUI官方示例:https://comfyanonymous.github.io/ComfyUI_examples/

  • 基础工作流示范:https://github.com/wyrde/wyrde-comfyui-workflows

  • comfyworkflows:https://comfyworkflows.com/

  • esheep(国内站点,访问快):https://www.esheep.com/

6. 插件安装

使用其他人的工作流时,我们往往会发现他们使用了某些我们并没有的节点,导致出现节点缺失的现象,这种情况下,需要我们安装缺失的节点。以下是几种安装插件的常见方式

1、有KX上网环境推荐直接通过界面中的管理器安装缺失节点即可,若没有KX上网,这个过程会很痛苦

2、使用整合包推荐通过启动器安装:版本管理–安装新插件–搜索插件–点击安装

3、单独下载插件:单独下载插件包解压到:comfyui 安装根目录lcustom nodes目录下(与前文提到的安装插件管理器方法一致),然后重启即可。

四、ComfyUI 能干啥?

    1. 基础文生图
    1. 基础图生图
    1. 真人转动漫/动漫转真人
    1. 线稿上色
    1. 老旧照片修复
    1. 隐藏艺术字
    1. 改变人物姿态
    1. 四维彩超宝宝长相预测
    1. 红包封面
    1. 真人电子AI写真定制
    1. 赛博朋克风格转换
    1. 专属表情包
    1. 手机壁纸
  1. 14. 更多:这里不一一举例了,类似的玩法在网上可以看到很多,ComfyUI只是一个工具,具体如何应用,就要依靠自身的想象力了

五、文生图工作流

在首次使用ComfyUI时,启动后就可以看到它默认提供的一个工作流,其实就是一个非常基础的文生图工作流,我们就以这个工作流对基础节点做个简单的介绍

在ComfyUI中,节点和节点之间的链接以相同颜色链接即可,熟悉常用工作流之后,大概就能明白节点的链接逻辑了

1、K采样器

comfyui 添加lora,AI作画,stable diffusion,学习,深度学习,人工智能

K采样器

K采样器是SD出图流程中的核心节点,所有节点载入,数据输入,参数配置,最后都会汇总到K采样器,它会结合载入的模型,提示词的输入以及Latent输入,进行采样计算,输出得到最终图像

Latent,即潜空间,可以理解为SD内部流程中的图像格式,如果我们将图像作为输入,则需要通过VAE编码将其转换为Latent数据,在最后输出时,我们也需要通过VAE解码将其转换为像素空间,也就是我们最终图像

2、Checkpoint加载器

comfyui 添加lora,AI作画,stable diffusion,学习,深度学习,人工智能

checkpoint加载器

checkpoint 也就是大模型,这个节点是起始点,需要选择相应的大模型,以及vae输入给采样器,clip则连接正反向提示词 其中VAE可以直接使用大模型的vae去链接,也可以单独使用vae解码节点,来选择自定义的vae

3、CLIP文本编码器

comfyui 添加lora,AI作画,stable diffusion,学习,深度学习,人工智能

CLIP文本编码器

CLIP节点则需要输入提示词,其中CLIP节点需要两个,一个作为正向提示词链接K采样器,一个作为负向提示词链接采样器

4、空Latent

comfyui 添加lora,AI作画,stable diffusion,学习,深度学习,人工智能

空Latent

使用空latent建立潜空间图像,这里主要用于控制图像尺寸和批次数量的

5、VAE解码

comfyui 添加lora,AI作画,stable diffusion,学习,深度学习,人工智能

VAE解码

前面已经提到对于Latent潜空间图像和输出的像素图像之间,需要进行一次转换,VAE解码节点则是对这个过程转换的节点

6、保存图像

comfyui 添加lora,AI作画,stable diffusion,学习,深度学习,人工智能

保存图像

顾名思义,即保存当前生成的图像,保存的图像除了在当前页面能看到以外,也可以在本地文件夹目录(x:\xxx\ComfyUI根目录\output)下看到所有生成的图片

默认流程整体就这么简单,输入提示词,点击添加提示词队列,即可生成你的第一张ComfyUI图片了

comfyui 添加lora,AI作画,stable diffusion,学习,深度学习,人工智能

ComfyUI

六、图生图工作流

使用过WebUI的小伙伴可能要问了,文生图我懂了,那图生图怎么做呢?其实很简单,加一个图像载入节点作为数据输入就好了。前面提到,像素空间到潜空间需要做一次转换,所以我们就需要“加载图像”和“VAE编码”两个节点。

1. 加载图像

comfyui 添加lora,AI作画,stable diffusion,学习,深度学习,人工智能

加载图像

2. VAE编码

comfyui 添加lora,AI作画,stable diffusion,学习,深度学习,人工智能

VAE编码

通过简单地加两个节点,即把工作流改为了最基础的图生图模式,如以下工作流就是一个简单通过动漫大模型把真人转动漫的工作流,其中K采样器的降噪也就是对应WebUI中的重绘幅度,这个值越大生成图像越靠近提示词,越小则越靠近参考图像,我这里用的 0.6,看情况调整即可

comfyui 添加lora,AI作画,stable diffusion,学习,深度学习,人工智能

ComfyUI

comfyui 添加lora,AI作画,stable diffusion,学习,深度学习,人工智能

七、Lora

在Stable Diffusion中,Lora可谓是灵魂级别的东西,有了Lora,让模型训练的成本陡然下降,任何人都可以训练出一个自己想要的Lora模型。Lora输入SD中的微调模型,它可以通过训练素材实现主体风格的控制,或画面特征的控制,通过训练Lora,我们可以得到画风Lora,人物Lora,物体Lora等。

lora 是对大模型的后续微调,所以我们在ComfyUI中添加lora只需要在大模型后面新加Lora节点即可

comfyui 添加lora,AI作画,stable diffusion,学习,深度学习,人工智能

lora

我们可以直接通过右键checkpoint加载节点即可添加lora节点

comfyui 添加lora,AI作画,stable diffusion,学习,深度学习,人工智能

添加lora节点

当然 lora 不仅仅控制风格,可以把人物、衣服等进行炼制,控制出图的人物形象,控制出图人物的穿着都是可以的,这里推荐大家去C站寻宝吧,总有一款你喜欢的,如果没有也可以自己炼制哦。

我们以上面的图生图工作流为例,对整体工作流添加lora节点添加宫崎骏画风lora,于是我们就得到了真人转宫崎骏动漫画风的图片

comfyui 添加lora,AI作画,stable diffusion,学习,深度学习,人工智能

工作流

comfyui 添加lora,AI作画,stable diffusion,学习,深度学习,人工智能

宫崎骏画风

八、ControlNet

SD相比于其他AI绘图工具的强大之处就在于它的控图能力,SD的控图依赖于它的ControNet模型(模型下载参考前文介绍),这是对于使用SD控图不得不得掌握的技能,结合大模型,Lora模型,和ControlNet,三者结合能更好的创造出你所想的画面
ControINet 有独立的控制图像,通过对图像的预处理,再结合提示词进行生成图像
不同的预处理可以对生成的图像进行不同的控制,一般有风格约束、线条约束、姿态约束、景深控制等,不管是WebUI还是ComfyUI, 都有强大ControlNet,这里不详细介绍ControlNet,主要讲下如何在ComfyUI中使用ControlNet。

因此,在使用ControlNet时,需要添加几个关键节点:预处理器ControlNet应用ControlNet加载器加载图像预览图像VAE解码

1. 预处理器

comfyui 添加lora,AI作画,stable diffusion,学习,深度学习,人工智能

预处理器节点

comfyui 添加lora,AI作画,stable diffusion,学习,深度学习,人工智能

添加预处理器

预处理器的作用是选择需要对图像进行的控制方向,这里我们以线条控制为例,让预处理器导出一份预览图像,这样我们能直观的看到预处理的结果

comfyui 添加lora,AI作画,stable diffusion,学习,深度学习,人工智能

预处理结果

2. ControlNet加载器

ControlNet加载器则用于加载我们需要控图的模型,与预处理器对应就好,前面我们选了线条处理,所以这里我们使用线条的加载器“control v11p sd15 lineart.pth

comfyui 添加lora,AI作画,stable diffusion,学习,深度学习,人工智能

ControlNet加载器

3. ControlNet应用

ControlNet应用则用于把正想提示词、预处理器、以及加载器进行统一应用的节点,相当于中间连接器

comfyui 添加lora,AI作画,stable diffusion,学习,深度学习,人工智能

ControlNet应用

以下则是一个通过文生图+ControlNet线条控制进行真人转动漫的工作流

comfyui 添加lora,AI作画,stable diffusion,学习,深度学习,人工智能

工作流

没错,真人转动漫可以直接图生图,也可以通过文生图+ControlNet进行控图转换,使用ControlNet转换的好处在于可以对图片细节进行更加精细的控制,比如我使用线条处理,那么最后出图效果会更加基于原图的线条来生成

九、资源下载

大家可以在我前面提到的站点下载别人分享的工作流来学习实践,我这里也存了一些常用的工作流

comfyui 添加lora,AI作画,stable diffusion,学习,深度学习,人工智能

写在最后

AIGC技术的未来发展前景广阔,随着人工智能技术的不断发展,AIGC技术也将不断提高。未来,AIGC技术将在游戏和计算领域得到更广泛的应用,使游戏和计算系统具有更高效、更智能、更灵活的特性。同时,AIGC技术也将与人工智能技术紧密结合,在更多的领域得到广泛应用,对程序员来说影响至关重要。未来,AIGC技术将继续得到提高,同时也将与人工智能技术紧密结合,在更多的领域得到广泛应用。

感兴趣的小伙伴,赠送全套AIGC学习资料和安装工具,包含AI绘画、AI人工智能等前沿科技教程,模型插件,具体看下方。

comfyui 添加lora,AI作画,stable diffusion,学习,深度学习,人工智能

一、AIGC所有方向的学习路线

AIGC所有方向的技术点做的整理,形成各个领域的知识点汇总,它的用处就在于,你可以按照下面的知识点去找对应的学习资源,保证自己学得较为全面。

comfyui 添加lora,AI作画,stable diffusion,学习,深度学习,人工智能

comfyui 添加lora,AI作画,stable diffusion,学习,深度学习,人工智能

二、AIGC必备工具

工具都帮大家整理好了,安装就可直接上手!
comfyui 添加lora,AI作画,stable diffusion,学习,深度学习,人工智能

三、最新AIGC学习笔记

当我学到一定基础,有自己的理解能力的时候,会去阅读一些前辈整理的书籍或者手写的笔记资料,这些笔记详细记载了他们对一些技术点的理解,这些理解是比较独到,可以学到不一样的思路。
comfyui 添加lora,AI作画,stable diffusion,学习,深度学习,人工智能
comfyui 添加lora,AI作画,stable diffusion,学习,深度学习,人工智能

四、AIGC视频教程合集

观看全面零基础学习视频,看视频学习是最快捷也是最有效果的方式,跟着视频中老师的思路,从基础到深入,还是很容易入门的。

comfyui 添加lora,AI作画,stable diffusion,学习,深度学习,人工智能

五、实战案例

纸上得来终觉浅,要学会跟着视频一起敲,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。
comfyui 添加lora,AI作画,stable diffusion,学习,深度学习,人工智能文章来源地址https://www.toymoban.com/news/detail-859038.html

comfyui 添加lora,AI作画,stable diffusion,学习,深度学习,人工智能 若有侵权,请联系删除

到了这里,关于AI绘画利器:Stable-Diffusion-ComfyUI保姆级教程的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • AI绘图:Controlnet在ComfyUI中的使用教程:提升Stable Diffusion可控性

    Controlnet是Stable Diffusion中一个至关重要的功能,它极大地增强了图像生成的可控性。通过引入额外的条件,Controlnet使我们能够更精确地控制生成的图像内容。本教程将详细介绍如何在ComfyUI中使用Controlnet,从而让你的创作过程更加灵活和精确。 在开始使用Controlnet之前,我们需

    2024年04月17日
    浏览(26)
  • AI绘图:Stable Diffusion ComfyUI局部重绘与智能扩图全面教程

    在数字艺术创作中,局部重绘和智能扩图是两个非常重要的功能。局部重绘允许我们在保留原有图像的基础上,对特定区域进行修改或创新。而智能扩图则能够帮助我们在图像的边缘添加新的元素,从而扩展图像的内容。本文将详细介绍如何在Stable Diffusion ComfyUI中实现这两个

    2024年04月12日
    浏览(35)
  • 【AI绘画 Stable Diffution】解决下载安装“mixlab-nodes”节点插件,ComfyUI中不显示问题。

    1)如果用ComfyUI Manager插件下载mixlab插件的时候,中途可能会出错,一直无法下载完成。 2)下载好官方的项目直接放在custom_nodes目录下,ComfyUI中不显示 3)插件放置目录是ComfyUI_windows_portableComfyUIcustom_nodes 4)贴一下插件地址 https://github.com/shadowcz007/comfyui-mixlab-nodes 1) 2)  

    2024年02月21日
    浏览(123)
  • AI绘画Stable Diffusion

    安装包来自B站大佬 秋葉aaaki 安装教程 https://www.bilibili.com/video/BV1iM4y1y7oA?vd_source=2d34fd2352ae451c4f6d4cb20707e169 链接:https://pan.baidu.com/s/188_aaYrlNOlmQd_yrC8XYQ?pwd=3h2a 提取码:3h2a 将 (可选controlnet1.1预处理器),downloads丢程序如下路径 下载包里面 (可选controlnet1.1模型) *pth丢程序如下

    2024年02月11日
    浏览(53)
  • AI绘画Stable Diffusion进阶使用

    本文讲解,模型底模,VAE美化模型,Lora模型,hypernetwork。 文本Stable Diffusion 简称sd 欢迎关注 C站:https://civitai.com/ huggingface:https://huggingface.co/models?pipeline_tag=text-to-image stable diffusion webui 部署完成后,checkpoint是放底模 homewebuimodels 目录下 常见模式:后缀ckpt/safetensors 常见大小

    2024年01月22日
    浏览(52)
  • stable-diffusion AI 绘画

    git clone https://github.com/CompVis/stable-diffusion.git 进入stable-diffusion目录 在这里注册一个账号: Hugging Face – The AI community building the future. 并生成个token 安装CUDA NVIDIA 安装 CUDA_nvidia cuda_长满头发的程序猿的博客-CSDN博客 pip install torch -f https://download.pytorch.org/whl/torch_stable.html pip insta

    2024年02月13日
    浏览(34)
  • AI绘画:快速上手stable diffusion

    点击↑上方↑蓝色“ 编了个程 ”关注我~ 这是Yasin的第 89 篇原创文章 最近随着Chat GPT的大火,AI绘画也火了起来。尤其是midjourney(以下简称mj),能够通过文本生成AI图片,还能指定各种风格,简直是我们这种又菜又爱玩的福音。 下面是我用mj随便画的一些图: mj上手

    2023年04月22日
    浏览(48)
  • AI 绘画 | Stable Diffusion 图生图

    Stable Diffusion 不仅可以文生图,还可以图生图。文生图就是完全用提示词文本去生成我们想要图片,但是很多时候会有词不达意的感觉。就像我们房子装修一样,我们只是通过文字描述很难表达出准确的想要的装修效果,如果能给到一张设计图或者效果图,那么就能更加直白

    2024年02月03日
    浏览(57)
  • 【AI绘画】Stable Diffusion WebUI

    💝💝💝欢迎来到我的博客,很高兴能够在这里和您见面!希望您在这里可以感受到一份轻松愉快的氛围,不仅可以获得有趣的内容和知识,也可以畅所欲言、分享您的想法和见解。 推荐:kuan 的首页,持续学习,不断总结,共同进步,活到老学到老 导航 檀越剑指大厂系列:全面总

    2024年02月08日
    浏览(51)
  • AI 绘画 | Stable Diffusion 提示词

    在Stable Diffusion中,Prompts是控制模型生成图像的关键输入参数。它们是一种文本提示,告诉模型应该生成什么样的图像。 Prompts可以是任何文本输入,包括描述图像的文本,如“一只橘色的短毛猫,坐在草地上,背景是蓝天白云”,也可以是的组合,如“鸟,森林,天空

    2024年01月21日
    浏览(40)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包