[AI绘图教程]stable-diffusion webui加载模型与插件. 实战AI绘画

这篇具有很好参考价值的文章主要介绍了[AI绘图教程]stable-diffusion webui加载模型与插件. 实战AI绘画。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

之前讲了stable diffusion webui搭建,这里主要介绍使用方法以及模型,扩展等.

模型下载

主要下载网址

  • HuggingFace:Stable Diffusion、ControlNet的官方仓库。
  • Civitai:里面多是Lora或其它NSFW等模型的仓库。

这里下载anythingV4的模型,在Huggingface网站中搜索,

下载后放在stable-diffusion-webui\models\Stable-diffusion中

其他的模型也类似.

NovelAI模型也类似,需要下载相关模型.可以在Huggingface上搜索,如果实在找不到可以后台私信我.接下来介绍一些比较有意思的模型以及有用的插件

NovelAI

官网NovelAI - The AI Storyteller可以自己在网站上尝试

如果是本地部署的话,下载模型即可,可以参考这个网站Stable Diffusion NovelAI模型下载 - openAI

但这个模型貌似是泄露出来的,不能在huggingface上直接下载到,所以可以自己在网上搜搜.

loraAI

首先需要下载一个基础模型,然后再下载你想要的lora模型.

一般的基础模型是chilloutmix,在下载好这个模型后可以自己选择喜欢的lora模型.

一般的基础模型是chilloutmix,在下载好这个模型后可以自己.选择喜欢的lora模型,下载后放到models/Lora中.

我这里使用chilloutmix_Ni作为基础模型,然后点击右边的show extra networks,可以看见下面的Lora模型,点击使用,再加上自己的prompt即可.

[AI绘图教程]stable-diffusion webui加载模型与插件. 实战AI绘画

正向词

 <lora:yaeMikoRealistic_yaemikoMixed:1>masterpiece,((8k, RAW photo, highest quality, masterpiece), High detail RAW color photo professional close-up photo, (realistic, photo realism:1. 37), (highest quality), (best shadow), (best illustration), ultra high resolution, physics-based rendering, cinematic lighting), 1girl, petite, (ulzzang-6500:0.7), yae miko \(fox\), yae miko \(cosplay\), yae miko, smile, thick lips, narrow waist, shiny skin, pink hair, face_focus, (from side), depth of field, (long hair), bare shoulders, detached sleeves, hair ornament, earrings, bare thighs, (sideboob:1.65), upper body, east asian architecture, covered nipples

反向词

bright lantern, brightness, (nipples:1.2), pussy, EasyNegative, (worst quality:2), (low quality:2), (normal quality:2), lowres, normal quality, ((monochrome)), ((grayscale)), skin spots, acnes, skin blemishes, age spot, glans,extra fingers, fewer fingers, strange fingers, bad hand, strange leg, strange thighs, ((between breasts)), (cleavage:1.5), bra,

感觉不到一分钟就出图了.我的GPU显存4G,GTX1650

[AI绘图教程]stable-diffusion webui加载模型与插件. 实战AI绘画

怎么样,还不错吧

参考LORA模型使用教程及模型下载 Stable Diffusion WebUI - openAI

ControlNet

下载插件

可以直接在stable diffusion webui中下载扩展,扩展名字是sd-webui-controlnet

下载方式跟之前下载中文支持类似

[AI绘图教程]stable-diffusion webui加载模型与插件. 实战AI绘画

同时推荐安装OpenPose Editor用于编辑人物姿势

下载模型

网站lllyasviel/ControlNet at main (huggingface.co)

模型名称 模型描述
control_sd15_canny.pth 适用于给线稿上色,或将图片转化为线搞后重新上色,比较适合人物。
control_sd15_depth.pth 创造具有景深的中间图,建筑人物皆可使用。 Stability的模型64×64深度,ControlNet模型可生成512×512深度图。
control_sd15_hed.pth 提取的图像目标边界将保留更多细节,此模型适合重新着色和风格化。
control_sd15_mlsd.pth 该模型基本不能识别人物的,但非常适合建筑生成,根据底图或自行手绘的线稿去生成中间图,然后再生成图片。
control_sd15_normal.pth 根据底图生成类似法线贴图的中间图,并用此中间图生成建模效果图。 此方法适用于人物建模和建筑建模,但更适合人物建模。
control_sd15_openpose.pth 根据图片生成动作骨骼中间图,然后生成图片,使用真人图片是最合适的,因为模型库使用的真人素材
control_sd15_scribble.pth 使用人类涂鸦控制SD。该模型使用边界边缘进行训练,具有非常强大的数据增强功能,以模拟类似于人类绘制的边界线。
control_sd15_seg.pth 使用语义分割来控制SD,协议是ADE20k。 现在您需要输入图像,然后一个名为Uniformer的模型将为您检测分割。

这里一个模型就是5.71G,由于磁盘空间有限,所以我这里选择其中一个即可.

注意模型需要放在controlnet扩展目录下的models中

[AI绘图教程]stable-diffusion webui加载模型与插件. 实战AI绘画

使用

[AI绘图教程]stable-diffusion webui加载模型与插件. 实战AI绘画

下载后刷新,界面会出现ControlNet

利用刚才的图像,将刚才的图像拖到ControlNet中,勾选启用,预处理器选择openpose,模型选择对应的control_openpose的模型,其他的可以不动.然后点击预览预处理结果.

这样就得到对应的骨骼姿势了,输入不同的prompt,点击生成可以通过这个骨骼姿势得到其他图像.下载了的预处理器如下

[AI绘图教程]stable-diffusion webui加载模型与插件. 实战AI绘画

预处理名称 对应模型 模型描述
canny control_canny 边缘检测
depth control_depth 深度检测
hed control_hed 边缘检测但保留更多细节,适合重新着色和风格化。
mlsd control_mlsd 线段识别,识别人物功能极差,非常适合建筑。
normal_map control_normal 根据图片生成法线贴图,非常适合CG建模师。
openpose control_openpose 提取人物骨骼姿势
openpose_hand control_openpose 提取人物+手部骨骼姿势
scribble control_openpose 提取黑白稿
fake_scribble control_scribble 涂鸦风格提取(很强大的模型)
segmentation control_seg 语义分割

除了使用openpose还有其他模型可用,比如使用Canny提取线稿

还有使用Scribble模型涂鸦绘画等等.这里就不详细说了

插件下载

提示词补全

能在输入Tag时提供booru风格(如Danbooru)的TAG自动补全。因为有一些模型是基于这种TAG风格训练的(例如Waifu Diffusion),因此使用这些Tag能获得较为精确的效果。

a1111-sd-webui-tagcomplete/README_ZH.md at main · DominikDoom/a1111-sd-webui-tagcomplete (github.com)

git clone "https://github.com/DominikDoom/a1111-sd-webui-tagcomplete.git" extensions/tag-autocomplete

openpose editor

下载插件即可,可用于编辑ControlNet得到的骨骼图.

骨架人偶Posex

hnmr293/posex: Posex - Estimated Image Generator for Pose2Image (github.com)

使用方法

点击:选择身体

左拽:移动关节(选中关节点)或者旋转视角

右拽:移动整个身体(如果选中身体)或者移动视角

鼠标滚轮:放大缩小

手部模型

jexom/sd-webui-depth-lib: Depth map library for use with the Control Net extension for Automatic1111/stable-diffusion-webui (github.com)

不定期更新,欢迎关注点赞.⭐️文章来源地址https://www.toymoban.com/news/detail-407805.html

参考资料

  1. AI绘画|ControlNet安装教程及模型下载|Stable Diffusion WebUI高阶教程 - openAI
  2. Stable Diffusion WebUI實用AI繪圖擴充功能介紹 | Ivon的部落格 (ivonblog.com)
  3. AI绘画新突破-ControlNet精准控图 - 知乎 (zhihu.com)

到了这里,关于[AI绘图教程]stable-diffusion webui加载模型与插件. 实战AI绘画的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 【计算机视觉】手把手教你配置stable-diffusion-webui进行AI绘图(保姆级教程)

    本地部署指的是将软件应用程序或服务部署在本地计算机或本地服务器上,而不是使用云服务或远程服务器。以下是一些常见的原因,解释为什么选择本地部署: 数据隐私和安全性:对于某些敏感数据或关键业务功能,保持数据在本地环境中更有保障。本地部署可以提供更高

    2024年02月08日
    浏览(41)
  • 闲谈【Stable-Diffusion WEBUI】的插件:美不美?交给AI打分

    本篇主要提到了WEBUI的Cafe Aesthetic插件,这是一个相对独立的插件,单独标签页,判断图片艺术感和分类。 更多不断丰富的内容参考:🔗 《继续Stable-Diffusion WEBUI方方面面研究(内容索引)》 图像作品到底好不好,有没有艺术细菌,AI也可以评价了。 参考:https://github.com/p1atde

    2024年02月09日
    浏览(38)
  • 【AI绘图】Stable Diffusion WebUI环境搭建

    Stable Diffusion WebUI开源地址:https://github.com/AUTOMATIC1111/stable-diffusion-webui  首先根据要求做以下准备工作: 1. 安装 Python 3.10.6, 安装时记得勾选\\\"Add Python to PATH\\\"把Python添加到环境变量. 2. 安装Git环境,Git - Downloading Package 3. 用git命令把下载Stable Diffusion WebUI项目:    4. 项目下载到本

    2024年02月04日
    浏览(43)
  • AI绘图入门 安装 stable-diffusion-webui

    先看样张: https://www.python.org/downloads/ Git - Downloads (git-scm.com) 1. 新建文件夹 (不能有中文,建议放在空闲比较多的硬盘上),然后再文件夹打开命令行 2. 克隆 Nvidia显卡 AMD显卡 AMD GPU 说明 CPU 选择上面任意一个都可以 下载慢可以请求头加https://ghproxy.com/ 如: https://ghproxy.com/

    2024年02月06日
    浏览(44)
  • AI绘图开源工具Stable Diffusion WebUI前端API对接

    本文主要介绍 AI 绘图开源工具 Stable Diffusion WebUI 的 API 开启和基本调用方法,通过本文的阅读,你将了解到 stable-diffusion-webui 的基本介绍、安装及 API 环境配置;文生图、图生图、局部重绘、后期处理等 API 接口调用;图像处理开发中常用到一些方法如 Base64 、 PNG 、 Canvas 及

    2024年02月10日
    浏览(40)
  • 1024程序员节?我们整点AI绘图玩玩吧,一文教你配置stable-diffusion

    需提前准备:一台高性能的电脑(尤其是显存)、python、Git、梯子。 其实Github上有很多关于Stable diffusion的库,综合对比之后,我选取的是比较全面的AUTOMATIC1111这个,源码链接:Stable-diffusion(Github) 找到安装那块的教程,此教程以windows为例。 ps:如果你电脑上已经有了pyt

    2024年01月16日
    浏览(62)
  • 搭建 AI绘图 Stable Diffusion- WebUI 制作属于自己版权的图片

    前言 Stable Diffusion 是一种深度学习文本到图像生成模型,它主要用于根据文本的描述产生详细图像,亦或者根据现有的图片生成相似的图片。在本地代建Stable Diffusion-webUI需要准备Python环境(3.10.6版本)、可以上外网的梯子,Git拉取代码工具,电脑配置最低建议6G显存,1660TI显卡

    2024年02月16日
    浏览(42)
  • (十六) AIGC、AI绘画、SD-WebUI、本地部署、Stable-Diffusion本地模型、最新Controlnet扩展

    1、简介 AI绘画的工具网站很多,大部分收费/限制数量,而且速度很慢,如果部署本地的模型,不仅免费无限制、还可以提高出图效率,随意生成自己想象中的图,部署中发现有各种各样的环境配置问题,无法正确运行。 本博整理了SD-WebUI的整合包(Windows环境下),包括启动器

    2024年02月13日
    浏览(58)
  • 免费永久安装Stable diffusion WebUI到Google drive云端教程,免费GPU无限跑图,随时随地运行|Google colab|AI绘图攻略|免费硬盘 免费GPU

    免费运行stable diffusion的方案中,google colab方案是最好的,但是但是他每24小时会清空数据,每次跑图都要重新下载模型。。。那么我们该如何长期保有自己的数据呢?文本将解决这个问题,除翻越问题外唯一的前提就是你的google云盘还有足够的空间~~ 预先学习 : 安装及其问

    2024年02月09日
    浏览(82)
  • 【AI绘图本地部署,无显卡部署stable-diffusion-webui吗,使用CPU运算】

    环境准备 aconda:https://www.anaconda.com/ git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui 进入目录 cd stable-diffusion-webui 创建虚拟环境 python -m venv ./virtualenv 运行虚拟环境 .virtualenvScriptsActivate.ps1 安装Cpu运行的pytorch版本 pip3 install torch torchvision torchaudio 修改根目录下launch.py代码

    2024年02月16日
    浏览(38)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包