stable diffusion的api参数-附带插件使用

这篇具有很好参考价值的文章主要介绍了stable diffusion的api参数-附带插件使用。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

文章转自: stable diffusion的api参数-附带插件使用 | 夜空中最亮的星

img2img

{
        "prompt": "(masterpiece, best quality,Refined, beautiful),haruno sakura",
        "negative_prompt": " ((((big hands, un-detailed skin, semi-realistic)))), (((ugly mouth, ugly eyes,The disabled eyes, blurred eyes, missing teeth, crooked teeth, close up, cropped, out of frame))), worst quality, low quality, jpeg artifacts, ugly, duplicate, morbid, mutilated, extra fingers, mutated hands, poorly drawn hands, poorly drawn face, mutation, deformed, blurry, dehydrated, bad anatomy, bad proportions, extra limbs, cloned face, disfigured, gross proportions, malformed limbs, missing arms, missing legs, extra arms, extra legs, fused fingers, too many fingers, long neck,Deforming fingers, incomplete fingers, extra fingers,Ugly face",
        "override_settings": {
            "sd_model_checkpoint": "MXCFSuper_Counterfeit/mxcfSuperCounterfeit_v10.safetensors [56c0585d87]",
            "sd_vae": "YOZORA.vae.pt"
        },
        "clip_skip": 2,
        "denoising_strength": 0.5,
        "seed": -1,
        "batch_size": 1,
        "n_iter": 1,
        "steps": 25,
        "cfg_scale": 7,
        "restore_faces": False,
        "sampler_index": "DPM++ SDE Karras",
        "resize_mode": 1,
        # "mask_blur": 10,
        # "tiling": False,
        # "eta": 0,
        # "script_args": [],
        # "inpainting_fill": 1,
        # "inpaint_full_res": True,
        # "inpaint_full_res_padding": 32,
        # "inpainting_mask_invert": 1,
        "alwayson_scripts": {
            "other plugin":{
                "args":[arg1, arg2]
            }
            "ControlNet": {
                "args": [
                    {"enabled": True,
                     "input_image": "",
                     "mask": None,
                     "module": "canny",
                     "model": "control_sd15_canny [fef5e48e]",
                     "weight": 1,
                     "invert_image": False,
                     "resize_mode": 1,
                     "rgbbgr_mode": False,
                     "lowvram": False,
                     "processor_res": 512,
                     "threshold_a": 100,
                     "threshold_b": 200,
                     "starting_control_step": 0,
                     "ending_control_step": 1,
                     # "guidance": 1,
                     # "guidance_start": 0,
                     # "guidance_end": 1,
                     "guessmode": False
                     }
                ]
            }
        }
}

模型:MXCFSuper_Counterfeit

VAE:none

Clip skip:2 

Prompt:

Negative Prompt:""

Resize mode:Just resize

Sampling method:DPM++ SDE Karras

Sampling steps:25

Restore faces:flase

Width:所传图片宽度

Height:所传图片高度

Batch count:1

Batch size:1

CFG Scale:5

Denoising strength:0.5

Seed:-1

ControlNet:Enable

Control Type:Canny

Preprocessor:Canny

Model:control_sd15_canny

Control Weight:1

Starting Control Step:0

Ending Control Step:1

Preprocessor Resolution:512

Canny Low Threshold:100

Canny Hight Threshold:200

Control Mode:Balanced

Resize Mode:Crop and Resize

Script:none文章来源地址https://www.toymoban.com/news/detail-637283.html

到了这里,关于stable diffusion的api参数-附带插件使用的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 免费体验Stable Diffusion deforum文转视频插件,还有deforum API 接口部署介绍!

    如何使用 Serverless Devs 和函数计算快速体验部署 Stable Diffusion,这个是小白也能简单体验安装部署的教程.有电脑就能操作,依托阿里云原生服务.不用考虑硬件问题 本篇主要讲解怎么安装跟部署自定义安装插件跟模型.以deforum文转视频插件举例.deforum api 接口 自定义开发 镜像定制

    2024年02月16日
    浏览(44)
  • Stable Diffusion界面参数及模型使用

    本地部署Stable Diffusion教程,亲测可以安装成功 谷歌Colab云端部署Stable Diffusion 进行绘图 在上一篇博客中,我们成功部署了stable-diffusion-webui,在本地启动了一个 Web 服务,通过浏览器来访问页面,尝试生成了几张图片。本文将会对Stable Diffusion界面参数及模型使用做一个简单介

    2024年02月06日
    浏览(72)
  • Stable Diffusion 深度图像库插件使用小记

            Controlnet 横空出世以来,Stable Diffusion 从抽卡模式变为 引导控制模式,产生了质的飞跃,再也不用在prompt中钻研如何描述生成人物的动作模式,他对AI画师来说生产力提高不知道多少倍,文末附100个Lora资源方便大家使用。对于论文作者,某渣深感佩服。 ControlNet直

    2024年02月09日
    浏览(41)
  • 完整指南:如何使用 Stable Diffusion API

    Stable Diffusion 是一个先进的深度学习模型,用于创造和修改图像。这个模型能够基于文本描述来生成图像,让机器理解和实现用户的创意。使用这项技术的关键在于掌握其 API,通过编程来操控图像生成的过程。 在探索 Stable Diffusion API 的世界前,需要把握以下基本概念: API(

    2024年04月09日
    浏览(63)
  • stable diffusion comfyui的api使用教程

    1、自带队列 2、支持websocket 3、无需关心插件是否有开放api接口,只要插件在浏览器中可以正常使用,接口就一定可以使用 4、开发人员只需关心绘图流程的搭建 5、切换模型、进度查询soeasy 6、轻松实现图片生成时的渐变效果 7、支持中断绘图任务 8、无需繁琐的base64图片转换

    2024年02月05日
    浏览(42)
  • Stable Diffusion WebUI使用AnimateDiff插件生成动画

    AnimateDiff 可以针对各个模型生成的图片,一键生成对应的动图。 GPU显存建议12G以上,在xformers或者sdp优化下显存要求至少6G以上。 要开启sdp优化,在启动参数加上--sdp-no-mem-attention 实际的显存使用量取决于图像大小(batch size)和上下文批处理大小(Context batch size)。可以尝试

    2024年02月05日
    浏览(54)
  • 〔003〕Stable Diffusion 之 界面参数和基础使用 篇

    在使用 Stable Diffusion 开源 AI 绘画之前,需要了解一下绘画的界面和一些参数的意义 目前 AI 绘画对中文提示词的效果不好,尽量使用英文提示词 最主要一些参数如下: Prompt: 正向提示词,也就是 tag ,提示词越多, AI 绘图结果会更加精准 Negative prompt: 反向提示词,也就是

    2024年02月12日
    浏览(36)
  • Python 使用 Stable Diffusion API 生成图片示例

    代码: 输出: 说明: 运行后,图片以及 JSON 将会输出到当前目录下 output 中; TIP: 当然前提是你已经部署好 Stable Diffusion API 服务; 并且安装好跟我一样的模型以及一些相关的 LoRA ;

    2024年02月16日
    浏览(71)
  • 【stable-diffusion使用扩展+插件和模型资源(上】

    个人网站: https://tianfeng.space 距离上次模型使用和插件推荐已经挺久了,所以必须再写一期来扩展使用方法了,毕竟得与时俱进,趁着这两天有空,赶紧写,写全点。上期模型插件使用方法和推荐 1.qrcode-monster qrcode-monster是一款controlnet模型,可以生成创意二维码,还可以通过

    2024年02月12日
    浏览(47)
  • 【stable-diffusion使用扩展+插件和模型资源(下)】

    插件模型魔法图片等资源:https://tianfeng.space/1240.html 1.lobe theme lobe theme是一款主题插件,直接可以在扩展安装 界面进行了重新布局,做了一些优化,有兴趣的可以下载试试,右上角设置按钮,第一行就是语言设置,还有颜色等等 2.SadTalker https://github.com/OpenTalker/SadTalker 基于最

    2024年02月11日
    浏览(69)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包