【AIGC】如何在使用stable-diffusion-webui生成图片时看到完整请求参数

这篇具有很好参考价值的文章主要介绍了【AIGC】如何在使用stable-diffusion-webui生成图片时看到完整请求参数。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

背景

通过代码调用Stable Diffusion的txt2img、img2img接口时,很多时候都不知道应该怎么传参,比如如何指定模型、如何开启并使用Controlnet、如何开启面部修复等等,在sd-webui上F12看到的请求也不是正式调用SD的请求,所以当引入新插件或需要使用新功能时,怎么传参成了一个大问题,网上关于接口传参的资料也很少,接下来就介绍一下,如何在每次通过sd-webui点击生成图片时,获取到完整的请求参数。

开搞

需要使用到开源的项目:https://github.com/huchenlei/sd-webui-api-payload-display

里面只有几个文件,直接打包下载:

【AIGC】如何在使用stable-diffusion-webui生成图片时看到完整请求参数,AI时代,探索与尝试,AIGC,stable diffusion,sd-webui

接下来需要做的工作很简单:

  1. 拷贝.js文件至sd-webui所在目录的javascript目录;

  2. 拷贝.py文件至sd-webui所在目录的script目录;

【AIGC】如何在使用stable-diffusion-webui生成图片时看到完整请求参数,AI时代,探索与尝试,AIGC,stable diffusion,sd-webui

  1. 拷贝style.css中的内容,粘贴至sd-webui根目录下的style.css文件的末尾;(千万不能覆盖哦,是追加)

【AIGC】如何在使用stable-diffusion-webui生成图片时看到完整请求参数,AI时代,探索与尝试,AIGC,stable diffusion,sd-webui

  1. 重启sd-webui

使用

打开sd-webui页面,可以看到多了一个按钮

【AIGC】如何在使用stable-diffusion-webui生成图片时看到完整请求参数,AI时代,探索与尝试,AIGC,stable diffusion,sd-webui

展开就能看到所有的请求参数了

【AIGC】如何在使用stable-diffusion-webui生成图片时看到完整请求参数,AI时代,探索与尝试,AIGC,stable diffusion,sd-webui

当然,如果要复制所有json的话,可以点击API payload旁边的Copy按钮,会自动复制所有内容。

【AIGC】如何在使用stable-diffusion-webui生成图片时看到完整请求参数,AI时代,探索与尝试,AIGC,stable diffusion,sd-webui

遇到的问题

点击Copy按钮时,复制失败,显示:Failed to copy

【AIGC】如何在使用stable-diffusion-webui生成图片时看到完整请求参数,AI时代,探索与尝试,AIGC,stable diffusion,sd-webui

原因可以认为是js中的代码被浏览器的安全机制拦截了,打开浏览器控制台可以看到:

Cannot read properties of undefined (reading ‘writeText’)

【AIGC】如何在使用stable-diffusion-webui生成图片时看到完整请求参数,AI时代,探索与尝试,AIGC,stable diffusion,sd-webui

可以参考这篇文章解决:Enable the “Insecure origins treated as secure” setting

我用的是HTTP,所以看这一段就行

【AIGC】如何在使用stable-diffusion-webui生成图片时看到完整请求参数,AI时代,探索与尝试,AIGC,stable diffusion,sd-webui

主要就是4步解决:

【AIGC】如何在使用stable-diffusion-webui生成图片时看到完整请求参数,AI时代,探索与尝试,AIGC,stable diffusion,sd-webui
还有一点很重要,抓到的参数,可能比实际SD接口需要的多,最好是通过web-ui对比下哪些参数是必要的,传必要的参数即可,比如在使用面部修复插件时,遇到下面的问题:
【AIGC】如何在使用stable-diffusion-webui生成图片时看到完整请求参数,AI时代,探索与尝试,AIGC,stable diffusion,sd-webui
杜比web-ui,将参数缩减后不报错了。
【AIGC】如何在使用stable-diffusion-webui生成图片时看到完整请求参数,AI时代,探索与尝试,AIGC,stable diffusion,sd-webui
【AIGC】如何在使用stable-diffusion-webui生成图片时看到完整请求参数,AI时代,探索与尝试,AIGC,stable diffusion,sd-webui

从日志中可以看到面部修复插件生效了:【AIGC】如何在使用stable-diffusion-webui生成图片时看到完整请求参数,AI时代,探索与尝试,AIGC,stable diffusion,sd-webui文章来源地址https://www.toymoban.com/news/detail-717782.html

到了这里,关于【AIGC】如何在使用stable-diffusion-webui生成图片时看到完整请求参数的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • stable-diffusion-webui 安装使用

    最近AI绘画很火,尝试一下 https://github.com/AUTOMATIC1111/stable-diffusion-webui 或者删除python 重新安装,在开始菜单可以找到python的快捷方式,删除对应的源文件夹 关闭翻墙软件 ‘Torch is not able to use GPU; add --skip-torch-cuda-test to COMMANDLINE_ARGS variable to disable this check’\\\" 1.查驱动 nvidia-sm

    2024年01月18日
    浏览(74)
  • stable-diffusion-webui使用笔记

    Warning: caught exception \\\'CUDA call failed lazily at initialization with error: device = 0 device num_gpus INTERNAL ASSERT FAILED at “…/aten/src/ATen/cuda/CUDAContext.cpp”:50 答:后面还跟着很多日志,主要原因就是卡多了。 页面翻译,Tag翻译 sd-webui-bilingual-localization-main:英汉同在,可以不用。 stable-diffusion

    2024年02月16日
    浏览(39)
  • 使用stable-diffusion-webui 运行模型

    操作系统: Windows11 显卡: RTX2060 6GB 显存 下载 Python3.10.6 安装 image.png 注意勾选 Add Python 3.10.6 to PATH ,然后一路 下一步 即可 image.png 打开powershell, 确认安装成功 image.png 下载git image.png 完成安装 image.png 下载 为了避免找不到开源项目,可以像上图中的我一样, 先在用户目录建立一

    2024年02月12日
    浏览(77)
  • Stable-diffusion-webui 本地部署及使用

    1.安装conda; 2.创建conda env 和python 3.10.6; conda create --name stable-diffusion-webui python=3.10.6 3.更新pip; 4.安装cuda 11.8; https://developer.nvidia.com/cuda-toolkit-archive 5.克隆stable-diffusion-webui仓库 ; 6.下载SD模型 下载stablediffusion预训练模型至stable-diffusion-webui/models/stable-diffusion; V1.4 V1.5 7.运行

    2024年02月10日
    浏览(51)
  • 【AI】Stable-Diffusion-WebUI使用指南

    注:csdn对图片有审核,审核还很奇葩,线稿都能违规,为保证完整的阅读体验建议移步至个人博客阅读 最近AI绘画实现了真人照片级绘画水准,导致AI绘画大火,公司也让我研究研究,借此机会正好了解一下深度学习在AIGC(AI Generated Content)----人工智能自动内容生成领域的应用

    2024年02月07日
    浏览(63)
  • stable-diffusion-webui 中 Controlnet 使用说明

    Controlnet 允许通过线稿、动作识别、深度信息等对生成的图像进行控制。 自动安装 在 stable-diffusion-webui 页面上找到 Extensions - Install from URL ,输入插件的 git 地址,然后点击 Install 即可, URL 如下: 等待 loading 结束后,页面底部会出现 Installed into xxx. Use Installed tab to restart. 提示

    2024年02月06日
    浏览(69)
  • 使用Unity 接入 Stable-Diffusion-WebUI 文生图生成图像

    这一部分就不多赘诉了,我使用的是B站秋叶大佬的整合包, 要启用API 。 网上蛮多自己配置的,可能需要设密码之类的。经自己测试,使用整合包的话就不配置这个API账号密码了,不然会出现客户端出错,连接不上等问题(可能是我操作不当,我也还没研究透) 附带:可以下一

    2024年04月12日
    浏览(44)
  • Stable-Diffusion-WebUI从代码下载到使用技巧

    本文用于对AI绘画感兴趣但无计算机编程基础的人,包含本人安装和使用过程中的心得,可供新学者参考。 心理准备: 电脑性能越高越好,最好有高端显卡,如30系以上。低端显卡也可以,速度和质量感人就是; 会要求下载一些软件、模型,涉及环境变量设置、虚拟环境安装

    2024年02月10日
    浏览(68)
  • stable-diffusion-webui的介绍与使用——Controlnet1.1

    源码地址:https://github.com/lllyasviel/ControlNet | 最新 版本 controlnet-v1.1 论文 地址:2302.Adding Conditional Control to Text-to-Image Diffusion Models 扩展 UI地址 (需先安装sd-webui):https://github.com/Mikubill/sd-webui-controlnet 相关博文 相关博文- stable-diffusion-webui的基础功能手动安装,了解代码结构、

    2024年02月10日
    浏览(81)
  • AI画图_stable-diffusion-webui安装使用指南(1)

    本文章适用于: 有一定学习能力和钻研能力,遇到问题能合理使用搜索引擎尝试解决问题的人 想在windows系统中尝试使用AI作画工具stable-diffusion-webui进行绘画的人 有一定的计算机基础(会 魔法上网 、 知道 python和Git)和英文阅读能力的人 显卡为Nvidia(或采用CUDA架构),且性

    2024年01月16日
    浏览(51)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包