Stable Diffusion进阶玩法说明

这篇具有很好参考价值的文章主要介绍了Stable Diffusion进阶玩法说明。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

之前章节介绍了Stable Diffusion的入门,介绍了文生图的魅力,可以生成很多漂亮的照片,非常棒

传送门:

Stable Diffusion新手村-我们一起完成AI绘画-CSDN博客

那我们今天就进一步讲讲这个Stable Diffusion还能做些什么,

1.图生图

你是否也和我一样的想法,都已经有图了还生成什么,其实这个场景早就在我们的生活里出现过并火过一段时间了,比如你上传一个图片他帮你生成二次元的场景,感觉非常美哈哈,那今天咱们也看下怎么实现把!

首先标签选择图生图,然后和之前一样,用什么Stable Diffusion模型就选择什么Stable Diffusion模型,然后就是提示词(按照你给的照片描述就会比较像你的场景)以及反向提示词(你不想要什么)。

wd 1.4 标签器 插件下载,Ai与大数据,stable diffusion,人工智能

再往下面走则是我们要上传一个图生图的照片,

wd 1.4 标签器 插件下载,Ai与大数据,stable diffusion,人工智能

 我们可以选择尺寸,调整尺寸的时候界面会有一个红色标识,代表你要图生图哪些部分,然后最主要的重绘幅度,一般是0.6-0.7左右最好,太低直接是原图了。

 wd 1.4 标签器 插件下载,Ai与大数据,stable diffusion,人工智能

都调整好了,然后直接点击生成,就会生成相似的二次元图片。这是0.75的重绘幅度下的图片。

wd 1.4 标签器 插件下载,Ai与大数据,stable diffusion,人工智能

这是重绘幅度下的0.6的图片

wd 1.4 标签器 插件下载,Ai与大数据,stable diffusion,人工智能

2.WD1.4标签器

如果我们一个个的处理提示词太麻烦,也不一定精确,你看中一个照片的构图你可以下载下来我们可以用WD1.4标签器。

选中WD1.4标签器这个标签以后,我们上传图片,然后什么都不动,等待它把内容生成出来,我们把标签里的内容复制到文生图或者图生图里。是不是具方便呢。

wd 1.4 标签器 插件下载,Ai与大数据,stable diffusion,人工智能

把图片导出图生图里边,然后把提示词复制进来,点击生成完成了。

wd 1.4 标签器 插件下载,Ai与大数据,stable diffusion,人工智能

3.PNG图片信息

你是不是苦恼于网上生成的AI图很好看,然后你发现你复刻不了,因为不知道用的是哪些大模型,也不知道用的是什么提示词,就算知道什么提示词也一点不相像呢?

这时候我们就可以使用PNG图片信息标签了(前提是必须由SD生成的图片信息),

我们上传AI生成的图片,自动就会生成参数,我们用的什么提示词,消极的提示词,以及大模型,迭代的步数,采样器等等等当,让你更轻易的复刻别人的图片。

wd 1.4 标签器 插件下载,Ai与大数据,stable diffusion,人工智能

4.扩展标签器

扩展标签咱们今天说说从网址安装,只需要将git地址放入标红的“扩展的git仓库”,点击安装,这样就轻松安装了工具插件,重启下就会有对应的标签。

wd 1.4 标签器 插件下载,Ai与大数据,stable diffusion,人工智能

比如我安装了图绘pose然后就直接有了

wd 1.4 标签器 插件下载,Ai与大数据,stable diffusion,人工智能

5.ControlNet

ControlNet有特别多的功能,有可以固定肢体动作的,也可以生成线稿的,甚至可以帮助房屋设计,主要目的是固定让画面精准可控,更多更好玩的你可以自己去试试看看。

需要下载对应的ControlNet模型才可以生成对应想要的图片哦,否则只可以预览哦。

迹寒编程给了一些ControlNet基本的都有,可以关注它,公众号为:迹寒编程,回复:controlnet模型

模型链接如下:

百度网盘:https://pan.baidu.com/s/1NMbTs8lQqUqU3WOFe0JMfw?pwd=jhbc 提取码:jhbc 
夸克网盘:https://pan.quark.cn/s/4026d5e895f8提取码:BBdB

下载下来的模型放入models\ControlNet,不要放错哦,放完以后就可以直接刷新ControlNet的模型了。

肢体动作的示例,这个是我导入图片然后预览看到生成对应的肢体动作,你也可以编辑肢体动作

wd 1.4 标签器 插件下载,Ai与大数据,stable diffusion,人工智能

 线稿示例,也和上面一样,通过图片提取出来线条预览

wd 1.4 标签器 插件下载,Ai与大数据,stable diffusion,人工智能

 5.1.ControlNet固定肢体的使用

首先找到ControlNet一栏(滚动条下拉在下面),按照下图标识的步骤做,可以看到了生成对应的姿势。

wd 1.4 标签器 插件下载,Ai与大数据,stable diffusion,人工智能

然后写上提示词,去生成对应的肢体造型的二次元图片

1boy,solo,shirt,male focus,watch,wristwatch,black pants,black hair,blue shirt,looking at viewer,simple background,grey background,hands in pockets,smile,black eyes,closed mouth,standing,short hair,shirt tucked in,Fresh and refined,

点击生成生成对应图片,发现按照我们的姿势来做了

wd 1.4 标签器 插件下载,Ai与大数据,stable diffusion,人工智能

5.2.骨架图生成图片

当然我们也可以直接用骨架图生成对应姿态,然后生成对应姿态的人,需要下载对应的插件来自己处理骨骼图,复制链接放入扩展里直接安装(可以看目录4.扩展标签器),地址如下:

GitHub - fkunn1326/openpose-editor: Openpose Editor for AUTOMATIC1111's stable-diffusion-webui

如果你选择用骨架图就可以直接导入一张骨架图然后勾选允许预览,不要选择预处理器,然后就可以直接生成图片了,可以看到下图直接就生成对应的姿势。

wd 1.4 标签器 插件下载,Ai与大数据,stable diffusion,人工智能

当然也可以直接使用OpenPose编辑器,直接调整就可以wd 1.4 标签器 插件下载,Ai与大数据,stable diffusion,人工智能

 调整完可以发文生图或者是图生图里,

wd 1.4 标签器 插件下载,Ai与大数据,stable diffusion,人工智能

简单写下提示语,1个女陔,唐装,全身

Highest quality,ultra-high definition,masterpieces,8k quality,
1girl,chinese_clothes,full body,

就会生成对应的姿势图片,还是蛮有意思的。

wd 1.4 标签器 插件下载,Ai与大数据,stable diffusion,人工智能

除了我们自己处理骨骼点以外,我们也可以用在线的处理骨骼点,以及查看别人上传的图片姿势。


https://avatarposemaker.deezein.com/

可以给大家大致看下,左侧这个页面的大致功能,右边就是下载下来左边的骨骼图片,然后放入SD里然后生成图片就可。wd 1.4 标签器 插件下载,Ai与大数据,stable diffusion,人工智能

wd 1.4 标签器 插件下载,Ai与大数据,stable diffusion,人工智能 

6.面部修复Face Editor

当你放大看上面古装生成的照片,你会看到这张图的人脸如此扭曲,这个根据经验来说,基本生成全身照或全景都是这样的,人脸都会崩坍,

wd 1.4 标签器 插件下载,Ai与大数据,stable diffusion,人工智能

此时我们需要用插件面部修复Face Editor插件。

下载网址:https://github.com/ototadana/sd-face-editor.git 

在扩展中安装此插件就行,上面(目录4.扩展标签器)

进度条拉到最底部, 选择启用Face Editor,其余的我都是默认的,然后直接生成图片看下效果,如果不尽人意你可以进行其他的调整。

wd 1.4 标签器 插件下载,Ai与大数据,stable diffusion,人工智能 

 修复完以后就是倾国倾城的大美女啦!哈哈

 wd 1.4 标签器 插件下载,Ai与大数据,stable diffusion,人工智能

当然面部修复除了有Face Editor还有After Detailer,这个很多人感觉效果会更好一点,大家也可以用After Detailer去试一下。

今天要聊的就那么多,下次见!文章来源地址https://www.toymoban.com/news/detail-771915.html

到了这里,关于Stable Diffusion进阶玩法说明的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • Stable Diffusion WebUI 1.4「gradio」报错解决方案

    今天有很多朋友在运行 Stable Diffusion WebUI 1.4 时都遇到了「ModuleNotFoundError: No module named \\\'gradio\\\'」这个报错,在这里给大家一个解决方案。(请注意这里针对的是 Google Colab 版的 Stable Diffusion WebUI 1.4) 01. 将鼠标移至第二步的末尾,出现代码按钮,点击按钮依次添加 9 个代码单元

    2024年02月11日
    浏览(46)
  • SAM&Stable-Diffusion集成进化!分割、生成一切!AI绘画新玩法

    自SAM「分割一切」模型推出之后,二创潮就开始了,有想法有行动!飞桨AI Studio开发者 会唱歌的炼丹师 就创作出SAM进化版,将SAM、Stable Diffusion集成,实现「分割」、「生成」能力二合一,并部署为应用,支持在线使用! 创作者:会唱歌的炼丹师 作者主页:https://aistudio.ba

    2024年02月16日
    浏览(56)
  • Stable Diffusion原理说明

    本文参考:深入浅出讲解Stable Diffusion原理,新手也能看明白 - 知乎 目录 1、Stable Diffusion能做什么? 2、扩散模型(Diffusion model) (1)前向扩散(Forward Diffusion) (2)反向扩散(Reverse Diffusion) (3)如何训练  3、Stable Diffusion Model (1)潜在扩散模型(Latent diffusion model) (

    2024年02月11日
    浏览(41)
  • Stable diffusion模型种类说明

    1.基础模型        pruned是完整版模型,emaonly是剪枝版模型,如果想要训练自己的模型,需要下载完整的大模型。 (1)SD系列:sd-v1-4、sd-v1-5、sd-v2之类的,都是stable diffusion自带的大模型,效果会比较差。是训练自己大模型的基础模型的选择,属于中性模型,风格多,涵盖范

    2024年02月08日
    浏览(39)
  • stable diffusion 常用启动参数汇总及说明

    stable diffusion安装根目录下,使用记事本打开webui-user.bat,然后修改对应参数。 多个参数使用空格隔开 常用参数: 参数 说明 –xformers 启用xformers,可以加快图像生成速度,第一次启用会自动下载 –listen 使其他人可以访问,启用成功可以看到0.0.0.0:7860 –port 8888 将默认端口7

    2024年02月11日
    浏览(39)
  • 可用于Stable Diffusion免费的AI绘画标签生成器

    这是一个开源项目,借花献佛,基于原作者的基础上进行了微调还有以及修改内容。 支持中英文,权重以及xxxx词汇,老司机都懂。 直接可在右侧根据需求进行点选操作,然后复制到自己的Stable Diffusion中进行AI绘画。 下载压缩包 百度云盘 夸克云盘 安装nmp,如果你机器有的话

    2024年02月09日
    浏览(60)
  • Stable Diffusion WebUI文生图操作界面基本参数说明!

    朋友们,大家好,我是王赞,正在学习研究Stable Diffusion,致力于用最为朴素直白的语言为你介绍AI绘画的相关知识。 很多朋友在部署好Stable Diffusion后,本来想着可以愉快的玩耍了,但是点开一看,密密麻麻的选项立马又劝退了一大批人。 别着急,今天这篇教程将会为你解决

    2024年02月13日
    浏览(40)
  • stable diffusion API 调用,超级详细代码示例和说明

    本文主要介绍 stable diffusion API 调用,准确来说是对 stable diffusion webui 的 API 调用。接口文档可以查看: http://sd-webui.test.cn/docs 这里的 sd-webui.test.cn 是自己的 sd webui Endpoint。 文生图是: /sdapi/v1/txt2img 这个 POST 接口。 图生图是: /sdapi/v1/img2img 这个 POST 接口。 本文主要介绍文生

    2024年02月12日
    浏览(45)
  • stable diffusion插件controlnet的详细讲解以及用法说明

    controlnet是基于只能绘画AI-stable diffusion推出的一款功能强大的插件,它为文生图功能引入了新的控制方式,可以额外控制人物的具体姿势,景深,线稿上色等等,可以更稳定的控制画面。 插件安装 在stable diffusionUI界面中找到扩展   在扩展中找到从网址安装   当出现如下提示

    2024年01月19日
    浏览(38)
  • stable-diffusion-webui 中 Controlnet 使用说明

    Controlnet 允许通过线稿、动作识别、深度信息等对生成的图像进行控制。 自动安装 在 stable-diffusion-webui 页面上找到 Extensions - Install from URL ,输入插件的 git 地址,然后点击 Install 即可, URL 如下: 等待 loading 结束后,页面底部会出现 Installed into xxx. Use Installed tab to restart. 提示

    2024年02月06日
    浏览(67)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包