NovelAi + Webui + Stable-diffusion本地配置

这篇具有很好参考价值的文章主要介绍了NovelAi + Webui + Stable-diffusion本地配置。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

配置所需要工具:

  • 推荐dev-sidecargfpganv1.4.pth,NovelAi,ai,python,git,github
  •  系统版本 windows10,windows11
  • 显卡(越强越好,显存越大越好,本人是RTX 3060)用AMD显卡的参考:Install and Run on AMD GPUs · AUTOMATIC1111/stable-diffusion-webui Wiki (github.com)进行配置
  • 内存(16G可以正常运行,8G没有测试)
  • CUDA(下载低于现显卡版本的gfpganv1.4.pth,NovelAi,ai,python,git,github
  • Anaconda 或者 Git(此教程使用Git)gfpganv1.4.pth,NovelAi,ai,python,git,github
  • 安装前准备(下载并安装Windows Terminal,Git,下载 GFPGANv1.4.pth, NodelAI 模型
  • Windows Terminal
  • Git
  • GFPGANv1.4.pth
  • NovelAInovelaileak(50g))模型,磁力链接:magnet:?xt=urn:btih:5bde442da86265b670a3e5ea3163afad2c6f8ecc&dn=novelaileak
  • Python(版本要求:3.10.7+)Powershell检测Python和git版本
    git version
    python --version

git clone 项目

  • 在没有Stable Diffusion web UI 安装路径的时候用,相当于是导入了webui,如果在其他渠道获取了webui的文档则不需要进行给git clone
  • 如果有工具可以执行以下命令,设置当前环境HTTP,HTTPS代理(注意7890要换成自己的HTTP代理端口)用cmd设置就行,此代理要和魔法代理相同,不然git(pytorch)就会非常慢!!没有工具请转到清华源!!!
  • pip config set global.index-url https://pypi.tuna.tsinghua.edu.cn/simple
  • git config --global http.proxy "http://127.0.0.1:7890"
    
    pip config set global.proxy http://127.0.0.1:7890
    
  •  切换到保存项目的目录,例如 F:\Nas\,开始clone项目:AUTOMATIC1111/stable-diffusion-webui: Stable Diffusion web UI (github.com)github.com/AUTOMATIC1111/stable-diffusion-webui
  • cd F:\NovelAi\Nas
    
    git clone [https://github.com/AUTOMATIC1111/stable-diffusion-webui.git](https://github.com/AUTOMATIC1111/stable-diffusion-webui.git)
    
  •         用cmd 和 git 都可以 
  1. gfpganv1.4.pth,NovelAi,ai,python,git,github

复制或移动下载好的NovelAI模型到项目文件夹 stable-diffusion-webui

  1. 复制GFPGANv1.4.pth 到 stable-diffusion-webui 根目录。
  2. 复制novelaileak\stableckpt\animefull-latest\model.ckpt 到 stable-diffusion-webui\models\Stable-diffusion目录下,并改名为final-pruned.ckpt, 可能有同学会问,为什么是这个模型,我只能告诉你,这是成年人的快乐 :)。
  3. 复制novelaileak\stableckpt\animefull-latest\config.yaml 到 stable-diffusion-webui\models\Stable-diffusion目录下,并改名为final-pruned.yaml
  4. 复制novelaileak\stableckpt\animevae.pt 到 stable-diffusion-webui\models\Stable-diffusion目录下,并改名为final-pruned.vae.pt
  5. 复制novelaileak\stableckpt\modules\modules下的所有文件 到 stable-diffusion-webui\models\hypernetworks目录下,如果hypernetworks目录不存在,新建文件夹即可。
  •       如下图所示,代表正常(我是直接存到NovelAi的文件下了):gfpganv1.4.pth,NovelAi,ai,python,git,github
  • gfpganv1.4.pth,NovelAi,ai,python,git,github
  •  对照一下:gfpganv1.4.pth,NovelAi,ai,python,git,github
  • gfpganv1.4.pth,NovelAi,ai,python,git,github
  •      执行webui.bat,启动webui:

  • 当现显示:Running on local URl时,表示已经配置完成
  • 之间我也填了不少的坑,比如卡在Install torch and torchvision 那一行;Solution:两种解决方式1、针对github访问缓慢,推荐使用dev-sidecar。2、换成清华源。不要再用阿里源了!!阿里源更新缓慢没有新的包!!
  • 中间有一个modules.py的报错:最后查看python代码发现是我的vae模型出了点问题,用磁力链接重新下了animevae.pt文件就没有报错了
  • 时间很长耐心等待,若出现报错可以去贴吧或者小破站向大佬求助
  • gfpganv1.4.pth,NovelAi,ai,python,git,github

浏览器输入 http://127.0.0.1:7860

  • gfpganv1.4.pth,NovelAi,ai,python,git,github


16xx显卡,生成绿图、黑图的:

  • 编辑 stable-diffusion-webui\webui-user.bat,在 set COMMANDLINE_ARGS= 这行代码后,加入 --precision full --no-half
set COMMANDLINE_ARGS=--precision full --no-half
  • 保存后执行 ./webui-user.bat,启动项目

2G,4G显存的:

编辑 stable-diffusion-webui\webui-user.bat,在 set COMMANDLINE_ARGS= 这行代码后

2G 显存的增加 --lowvram

4G 显存的增加 --medvramgfpganv1.4.pth,NovelAi,ai,python,git,github文章来源地址https://www.toymoban.com/news/detail-791240.html


到了这里,关于NovelAi + Webui + Stable-diffusion本地配置的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 探索【Stable-Diffusion WEBUI】的插件:批量替换人脸

    本篇主要提到WEBUI似乎和主线剧情无关的插件,可以批量改变多张图片的面部为AI生成的内容。 更多不断丰富的内容参考:🔗 《继续Stable-Diffusion WEBUI方方面面研究(内容索引)》 参考:🔗插件官网 可以从WEB UI中直接安装。 安装后在图生图最下面的 脚本 下拉列表中, 它需要

    2024年02月09日
    浏览(63)
  • 探索【Stable-Diffusion WEBUI】的插件:骨骼姿态(OpenPose)

    本篇主要提到OpenPose和相关的插件,配合ControlNet使用,可以指定人物的动作。 更多不断丰富的内容参考:🔗 《继续Stable-Diffusion WEBUI方方面面研究(内容索引)》 骨骼姿态很有用,可以控制生成人物的动作。 我们可以用ControlNet或各种插件,从图片中提取人物的骨骼姿态。 也可

    2024年02月04日
    浏览(51)
  • 关于【Stable-Diffusion WEBUI】方方面面研究(内容索引)

    关于Stable-Diffusion WEBUI,我发现网上各种教程真的很多。 写得很好很详细的也不少,读了感觉比我写的好多了,无论是原理和相关论文还是操作和细节。 所以准备记录下Stable-Diffusion WEB UI的方方面面,以及哪里去看相关的资料。 同时自己写的东西也有点乱,得整理一下。呃在

    2024年02月05日
    浏览(35)
  • stable-diffusion的webui和comfyuig共享模型路径

     1.修改上图extra_model_paths.yaml.example为extra_model_paths.yaml 2.将base_path: path/to/stable-diffusion-webui/修改成你的/stable-diffusion-webui安装路径(例如:base_p: D:/stable-diffusion-webui) 做个记录

    2024年02月04日
    浏览(39)
  • 探索【Stable-Diffusion WEBUI】的附加功能:图片缩放&抠图

    本篇单独讲解了WEBUI内置的附加功能:图片缩放——主要是默认4x的放大图片;还有同一页的抠图插件。 更多不断丰富的内容参考:🔗 《继续Stable-Diffusion WEBUI方方面面研究(内容索引)》 附加功能就是在文生图,图生图以外,对图片的其它处理。 在没有安装更多插件的时候,

    2023年04月24日
    浏览(56)
  • 闲谈【Stable-Diffusion WEBUI】的插件:绘图过程动画输出

    本篇主要提到WEBUI的过程动画输出插件,把AI绘图的过程,从完全噪点到成品的过程做成动画视频。 更多不断丰富的内容参考:🔗 《继续Stable-Diffusion WEBUI方方面面研究(内容索引)》 参考:https://github.com/vladmandic/sd-extension-steps-animation 可以从WEB UI中直接安装。 安装后出现在和

    2024年02月16日
    浏览(39)
  • 探索【Stable-Diffusion WEBUI】的插件:ControlNet 1.1

    本篇主要提到ControlNet新版本的使用,和旧版本的变化,并偷懒参考了别人很不错的文章。 更多不断丰富的内容参考:🔗 《继续Stable-Diffusion WEBUI方方面面研究(内容索引)》 WEBUI的插件里, ControlNet 是少数几个不需要翻译的插件,因为翻译了也没意思: 控制网络 ? 它的作用是

    2024年02月09日
    浏览(34)
  • 探索【Stable-Diffusion WEBUI】的图片超分辨插件:StableSR

    本篇主要介绍WEBUI的插件:StableSR:图片超分辨放大的使用,以及和WEB UI附加功能图片放大功能的对比。 更多不断丰富的内容参考:🔗 《继续Stable-Diffusion WEBUI方方面面研究(内容索引)》 之前通过《探索【Stable-Diffusion WEBUI】的附加功能:图片缩放抠图》了解到,由于Stable-Di

    2024年02月09日
    浏览(67)
  • 浅谈【Stable-Diffusion WEBUI】(AI绘图)的基础和使用

    如果你对这方面是零基础,可以阅读本篇的内容,至少可以上手。 更多不断丰富的内容参考:🔗 《继续Stable-Diffusion WEBUI方方面面研究(内容索引)》 最近比较热门的人工智能,可以单纯通过输入一段文字(提示词),或者通过一张图片生成新的绘图作品。 根据基础模型和人

    2024年02月05日
    浏览(51)
  • 关于【Stable-Diffusion WEBUI】基础模型对应VAE的问题

    本篇主要提及模型的VAE,通常情况下我们不用考虑它,但是有些特别是早期模型并没有整合VAE…… 更多不断丰富的内容参考:🔗 《继续Stable-Diffusion WEBUI方方面面研究(内容索引)》 VAE (Variational Auto-Encoder 变分自动编码器) 虽然简称是编码器,实际上是编码解码器(我们用到

    2024年02月09日
    浏览(40)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包