【stable-diffusion使用扩展+插件和模型资源(下)】

这篇具有很好参考价值的文章主要介绍了【stable-diffusion使用扩展+插件和模型资源(下)】。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

插件模型魔法图片等资源:https://tianfeng.space/1240.html

书接上文:(上)

插件推荐

1.lobe theme

lobe theme是一款主题插件,直接可以在扩展安装

【stable-diffusion使用扩展+插件和模型资源(下)】,趣玩AI,stable diffusion,人工智能

界面进行了重新布局,做了一些优化,有兴趣的可以下载试试,右上角设置按钮,第一行就是语言设置,还有颜色等等

【stable-diffusion使用扩展+插件和模型资源(下)】,趣玩AI,stable diffusion,人工智能

2.SadTalker

https://github.com/OpenTalker/SadTalker

基于最新顶会文章的一款插件,只需要一张图片和一段音频就可以使图片动起来说话的一段视频

【stable-diffusion使用扩展+插件和模型资源(下)】,趣玩AI,stable diffusion,人工智能

点击请在此处,来到安装说明界面,从网址安装,下载方法最后总结说一遍,下次我直接放网址了,你可以从以下四种方式安装

  • 直接扩展搜索sadTalker安装,如果没有
  • 从网址安装,需要魔法,如果还不行
  • 直接在扩展目录下,git clone 网址(之前写过git安装,往前翻翻)
  • 压缩包下载,解压放到扩展

【stable-diffusion使用扩展+插件和模型资源(下)】,趣玩AI,stable diffusion,人工智能

安装完后还需要把模型文件下载放到扩展目录sadtalker插件下的模型目录下,【stable-diffusion使用扩展+插件和模型资源(下)】,趣玩AI,stable diffusion,人工智能

如果你想要启用图片面部修复,还需下载gfpgan

【stable-diffusion使用扩展+插件和模型资源(下)】,趣玩AI,stable diffusion,人工智能

下完这两个文件,解压把它里面的文件放到该目录下

【stable-diffusion使用扩展+插件和模型资源(下)】,趣玩AI,stable diffusion,人工智能

把模型里archive,BFM,hub三个压缩包解压,

【stable-diffusion使用扩展+插件和模型资源(下)】,趣玩AI,stable diffusion,人工智能

还需要下载ffmpeg,之前Ai无闪烁视频制作那期讲了安装过程,就是去官网,下载压缩包解压,然后添加环境变量就行了,很简单,详细过程看https://tianfeng.space/1616.html

到此,准备工作完毕!!来到webui,上传照片,声音(太长可能处理不了),右边的参数很少,就是选择分辨率,和裁剪方式,是否启用面部修复(效果不一定好),直接生成就行,推荐256,裁剪

【stable-diffusion使用扩展+插件和模型资源(下)】,趣玩AI,stable diffusion,人工智能

成品:随便找的音频(狗头)

https://tianfeng.space/wp-content/uploads/2023/08/tmppu_mfqe22-0-100.mp4

3.预设管理器

就是比自带的预设多了很多选择,比如采样方法,种子,宽高等等,以往的预设只能保存正反向提示词,很多一些常用的基础设置并不能很好的保存

https://github.com/Gerschel/sd_web_ui_preset_utils

从网址安装【stable-diffusion使用扩展+插件和模型资源(下)】,趣玩AI,stable diffusion,人工智能

重启客户端打开,在右下角,点击详细设置,,可以勾选你想要保存的信息

【stable-diffusion使用扩展+插件和模型资源(下)】,趣玩AI,stable diffusion,人工智能

【stable-diffusion使用扩展+插件和模型资源(下)】,趣玩AI,stable diffusion,人工智能

然后起名“起手式”,点击保存,下次可以直接加载了

4.infinite-image-browsing

https://github.com/zanllp/sd-webui-infinite-image-browsing

一个强大的图像管理器。精准的图片搜索结合多选操作,可以进行过滤/归档/打包,大大提高效率。再也不用读取图片信息来得到图片的生成信息了,直接查阅生成图片,一键发送到文生图,图生图

从网址安装,重启

【stable-diffusion使用扩展+插件和模型资源(下)】,趣玩AI,stable diffusion,人工智能

来到“无图片边浏览插件”,翻译的怪怪的,你们界面应该也差不多

【stable-diffusion使用扩展+插件和模型资源(下)】,趣玩AI,stable diffusion,人工智能

【stable-diffusion使用扩展+插件和模型资源(下)】,趣玩AI,stable diffusion,人工智能

打开上下文菜单选项可以把生成信息发送到文生图,图生图,局部重绘等等,OK下一个

5.纵横比助手

https://github.com/thomasasfk/sd-webui-aspect-ratio-helper

【stable-diffusion使用扩展+插件和模型资源(下)】,趣玩AI,stable diffusion,人工智能

该插件有点小问题,超过限定分辨率容易长宽比会锁死无法调整,所以在该目录下,用记事本打开就行,在红框出更改如下

【stable-diffusion使用扩展+插件和模型资源(下)】,趣玩AI,stable diffusion,人工智能

【stable-diffusion使用扩展+插件和模型资源(下)】,趣玩AI,stable diffusion,人工智能

重启,打开就可以正常使用了【stable-diffusion使用扩展+插件和模型资源(下)】,趣玩AI,stable diffusion,人工智能

5.制作海报

【stable-diffusion使用扩展+插件和模型资源(下)】,趣玩AI,stable diffusion,人工智能

传入带文字的黑字白底图,设置如下:

【stable-diffusion使用扩展+插件和模型资源(下)】,趣玩AI,stable diffusion,人工智能

简单书写提示词

masterpiece,best quality,in autumn,(autumn maple forest:1.3),(very few fallen leaves),(path),maple_leaf,grove,fallen leaves,golden theme,
Negative prompt: (man:1.3),lowres, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts, signature, watermark, username, blurry
Steps: 40, Sampler: DPM++ 2M Karras, CFG scale: 7, Seed: 3775422122, Size: 768x512, Model hash: 4199bcdd14, Model: revAnimated_v122, Denoising strength: 0.7, ControlNet 0: "preprocessor: invert (from white bg & black line), model: control_v11f1p_sd15_depth [cfd03158], weight: 1, starting/ending: (0.2, 1), resize mode: Crop and Resize, pixel perfect: True, control mode: Balanced, preprocessor params: (512, 64, 64)", Hires upscale: 2, Hires upscaler: R-ESRGAN 4x+, Version: v1.5.1

然后对生成图片ps添加文字排版,简单作参考,毕竟本人没什么设计天赋!

6.logo设计

【stable-diffusion使用扩展+插件和模型资源(下)】,趣玩AI,stable diffusion,人工智能

提示词参考如下:

masterpiece,best quality,Digital Art Concept,High detail,4k,Industrial Design,(magnificent_architecture:1.3),(house:1.3),beautiful background,Futurism,Seby Punk,Studio Lighting,Concept Art,Assembly,Fantasy Engine,Octane Rendering,Architectural Visualization,Architectural Rendering,surrealism,16k,Surreal,High detail,

【stable-diffusion使用扩展+插件和模型资源(下)】,趣玩AI,stable diffusion,人工智能

7.面部修复

https://github.com/Bing-su/adetailer

扩展搜索安装

【stable-diffusion使用扩展+插件和模型资源(下)】,趣玩AI,stable diffusion,人工智能

【stable-diffusion使用扩展+插件和模型资源(下)】,趣玩AI,stable diffusion,人工智能

【stable-diffusion使用扩展+插件和模型资源(下)】,趣玩AI,stable diffusion,人工智能

使用直接使用lora填入提示词,它会根据lora重新绘制脸型

模型推荐

1

https://www.liblibai.com/modelinfo/e1ec32b3de474c19a216e30b0050d895

【stable-diffusion使用扩展+插件和模型资源(下)】,趣玩AI,stable diffusion,人工智能

这是艺术向的一款lora,风格直逼MJ的氛围感~如果你希望自己的模型有一些高级感的表达,淡色盛宴绝对是好选择!这是一个艺术向的尝试使用了大量艺术馆摄影风格,带有淡色系的优雅美感人物可以在场景中走秀,舞蹈。

2

https://www.liblibai.com/modelinfo/966e76ef52674283a5b06fe7c34f6ec4

【stable-diffusion使用扩展+插件和模型资源(下)】,趣玩AI,stable diffusion,人工智能

更细腻的光影更真实的皮肤纹理告别网红脸会摄影的朋友加上相机参数会有不一样的效果哦,全身图建议配合使用adetailer,

3

https://www.liblibai.com/modelinfo/b5bf9fce324b79ddcedca71217740357

【stable-diffusion使用扩展+插件和模型资源(下)】,趣玩AI,stable diffusion,人工智能

此模型是各种真实,摄影,写实风格模型的合体,经历了配比调整,追求一个摄影真实感,去除油腻感,

4.

https://www.liblibai.com/modelinfo/e8f951aa5dc6d7ac2f422a231c058dd0

【stable-diffusion使用扩展+插件和模型资源(下)】,趣玩AI,stable diffusion,人工智能

尝试这两个插件我使用了动态阈值修复和adetailer插件,都讲过

5.

https://www.liblibai.com/modelinfo/1fd281cf6bcf01b95033c03b471d8fd8

【stable-diffusion使用扩展+插件和模型资源(下)】,趣玩AI,stable diffusion,人工智能

本模型适用性较广,插画、二次元及普遍的2D、2.5D均可很好出图,比较有特色的是对niji风的复现,搭配LoRA nijiexpress以及不同LoRA的复用有很好的相性,直出图就会有很高的质量,

6.

https://www.liblibai.com/modelinfo/e44b67fbe1d5c73f7aa22a91adfde9b8

【stable-diffusion使用扩展+插件和模型资源(下)】,趣玩AI,stable diffusion,人工智能

这是一个用于生成胶片风格AI写真照片的LoRA模型,C站上下载量已近6万,广受大家好评。

该模型与MoonMIX、majicMIX real或Chilloumix等写实模型搭配使用,可以生成鲜艳的胶片风格照片。同时搭配TEXTUAL IVERSION模型: bad_pictures 、 negative_hand Negative Embedding 。这两个Negative Embedding模型不会对胶片的成像有明显影响。

7.

https://www.liblibai.com/modelinfo/cb8d7083b853b2361c243fdb03778b17

【stable-diffusion使用扩展+插件和模型资源(下)】,趣玩AI,stable diffusion,人工智能

这个不用多说了:

1.GhostMix是Civitai All Time Highest Rated (历史最高评价排名)第二名的模型,仅次于DreamShaper,Civitai上400次评价4.99(满分5分)也是最高评分的模型之一。

2.GhostMix没有融任何Lora,Checkpoint应该主打的是兼容性,解决的是做的到的问题,而Lora是做的对的问题,GhostMix是对lora兼容性最强的模型,2D-3D都可以兼容。

3.推荐一定要做高清修复! 高清修复: 2倍, 重绘幅度:0.4-0.5 或 1.5倍, 重绘幅度:0.5-0.65

4.如果想要复现,确保CLIP值要对! CLIP1和CLIP2要对!建议把图下下来然后放到PNG信息里面去查设置)

5.之前用的大多数Prompts在新版本也可以生成相似的结果

6.用 ng_deepnegative_v1_75t和easynegative,建议别用BadHandV4,V5(会非常影响画风)

7.采样方法建议 DPM++系列 , 步数20-30, CFG:3-7(7最好,3有时候会有非常大的惊喜)文章来源地址https://www.toymoban.com/news/detail-678598.html

先到这把,后面会持续更新

到了这里,关于【stable-diffusion使用扩展+插件和模型资源(下)】的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • [AI绘图教程]stable-diffusion webui加载模型与插件. 实战AI绘画

    之前讲了stable diffusion webui搭建,这里主要介绍使用方法以及模型,扩展等. 主要下载网址 HuggingFace:Stable Diffusion、ControlNet的官方仓库。 Civitai:里面多是Lora或其它NSFW等模型的仓库。 这里下载anythingV4的模型,在Huggingface网站中搜索, 下载后放在stable-diffusion-webuimodelsStable-diffusio

    2023年04月09日
    浏览(60)
  • AI绘画 | stable-diffusion的模型简介和下载使用

    我们下载完stable-diffusion-ui后还需要下载需要的大模型,才能进行AI绘画的操作。秋叶的stable-diffusion-ui整合包内,包含了anything-v5-PrtRE.safetensors和Stable Diffusion-V1.5-final-prune_v1.0.ckpt两个模型。 anything-v5-PrtRE.safetensors模型可以用于生成多种类型的图像,包括肖像、风景、动物、卡通

    2024年02月04日
    浏览(68)
  • Stable-Diffusion|入门怎么下载与使用civitai网站的模型(二)

    C站:https://civitai.com/ 上一篇安装:Stable-Diffusion|window10安装GPU版本的 Stable-Diffusion-WebUI遇到的一些问题(一) 先贴几张笔者自己实验的图,模型来自:photo-style-cnvtubermix 咒语prompt: 反向咒语: 左上角是主模型,一般是 CHECKPOINT MERGE ,所以如下图,这类就是主模型,需要放到主

    2024年02月08日
    浏览(40)
  • Stable Diffusion - 扩展插件 (Extensions) 功能的配置与使用

    欢迎关注我的CSDN:https://spike.blog.csdn.net/ 本文地址:https://spike.blog.csdn.net/article/details/131576762 Prompt: (masterpiece, top quality, best quality, ((standing in centre)), ((1girl, black hair)), ((upper body, symmetrical composition)), ((wear yellow abstract patterns dress bold lines, geometric shapes)), (pure yellow abstract patterns

    2024年02月16日
    浏览(27)
  • stable-diffusion安装controlnet插件

    1)extensions → install from URL → install 然后填入:https://github.com/Mikubill/sd-webui-controlnet 2)installed → apply and restart UI 下载controlnet模型(50G左右)到 E:stable-diffusion-webuiextensionssd-webui-controlnetmodels 目录下: lllyasviel/ControlNet at main 把所有8个模型放到models文件夹下 (待续)

    2024年02月12日
    浏览(36)
  • stable-diffusion打造自己的lora模型(使用lora-scripts)

    1、训练图片收集 比如要训练一个自己头像的模型,就可以拍一些自己的照片(20-50张,最少15张),要求画质清晰,脸部轮廓清楚,背景较为简单的照片。 2、使用stable_diffusion的预处理功能进行图片的预处理 这里可以根据自己的情况设置不同的宽高,以及相关的设置项,设置

    2024年02月03日
    浏览(32)
  • Stable Diffusion - 扩展 Roop 换脸 (Face Swapping) 插件的配置与使用

    欢迎关注我的CSDN:https://spike.blog.csdn.net/ 本文地址:https://spike.blog.csdn.net/article/details/131856141 官网:GitHub - roop,参考论文:RobustSwap: A Simple yet Robust Face Swapping Model against Attribute Leakage 面部替换的目标是将源图像的身份(即,面部特征)注入目标图像,同时严格保留与身份无关

    2024年02月14日
    浏览(32)
  • AIGC:腾讯云服务器快速部署stable-diffusion环境,使用ChilloutMix模型进行画图

    前两天在某公众号的软文刷到了AI绘画领域最新的ChilloutMix模型。大概是下面这张图的效果: 激动的心颤抖的手,学了这么多年计算机,就是为了走在时代前沿,事到如今终于可以活学活用了。然而自己的电脑配置完全不够用,咋整?开台GPU云服务器吧。踩了无数坑之后,终

    2024年02月16日
    浏览(33)
  • 探索【Stable-Diffusion WEBUI】的插件:批量替换人脸

    本篇主要提到WEBUI似乎和主线剧情无关的插件,可以批量改变多张图片的面部为AI生成的内容。 更多不断丰富的内容参考:🔗 《继续Stable-Diffusion WEBUI方方面面研究(内容索引)》 参考:🔗插件官网 可以从WEB UI中直接安装。 安装后在图生图最下面的 脚本 下拉列表中, 它需要

    2024年02月09日
    浏览(64)
  • Stable Diffusion - 扩展 SegmentAnything 和 GroundingDINO 实例分割算法 插件的配置与使用

    欢迎关注我的CSDN:https://spike.blog.csdn.net/ 本文地址:https://blog.csdn.net/caroline_wendy/article/details/131918652 Paper and GitHub: Segment Anything: SAM - Segment Anything GitHub: https://github.com/facebookresearch/segment-anything Grounding DINO: Grounding DINO: Marrying DINO with Grounded Pre-Training for Open-Set Object Detection 定位

    2024年02月15日
    浏览(30)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包