AI绘画stable-diffusion-webui指定GPU某个卡进行撸羊毛

这篇具有很好参考价值的文章主要介绍了AI绘画stable-diffusion-webui指定GPU某个卡进行撸羊毛。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

首先阅读启动web.py的源码:

parser = argparse.ArgumentParser(formatter_class=argparse.ArgumentDefaultsHelpFormatter)
parser.add_argument("--ckpt", type=str, default="models/ldm/stable-diffusion-v1/model.ckpt", help="path to checkpoint of model",)
parser.add_argument("--cli", type=str, help="don't launch web server, take Python function kwargs from this file.", default=None)
parser.add_argument("--config", type=str, default="configs/stable-diffusion/v1-inference.yaml", help="path to config which constructs model",)
parser.add_argument("--defaults", type=str, help="path to configuration file providing UI defaults, uses same format as cli parameter", default='configs/webui/webui.yaml')
parser.add_argument("--esrgan-cpu", action='store_true', help="run ESRGAN on cpu", default=False)
parser.add_argument("--esrgan-gpu", type=int, help="run ESRGAN on specific gpu (overrides --gpu)", default=0)
parser.add_argument("--extra-models-cpu", action='store_true', help="run extra models (GFGPAN/ESRGAN) on cpu", default=False)
parser.add_argument("--extra-models-gpu", action='store_true', help="run extra models (GFGPAN/ESRGAN) on cpu", default=False)
parser.add_argument("--gfpgan-cpu", action='store_true', help="run GFPGAN on cpu", default=False)
parser.add_argument("--gfpgan-dir", type=str, help="GFPGAN directory", default=('./src/gfpgan' if os.path.exists('./src/gfpgan') else './GFPGAN')) # i disagree with where you're putting it but since all guidefags are doing it this way, there you go
parser.add_argument("--gfpgan-gpu", type=int, help="run GFPGAN on specific gpu (overrides --gpu) ", default=0)
parser.add_argument("--gpu", type=int, help="choose which GPU to use if you have multiple", default=0)
parser.add_argument("--grid-format", type=str, help="png for lossless png files; jpg:quality for lossy jpeg; webp:quality for lossy webp, or webp:-compression for lossless webp", default="jpg:95")
parser.add_argument("--inbrowser", action='store_true', help="automatically launch the interface in a new tab on the default browser", default=False)
parser.add_argument("--ldsr-dir", type=str, help="LDSR directory", default=('./src/latent-diffusion' if os.path.exists('./src/latent-diffusion') else './LDSR'))
parser.add_argument("--n_rows", type=int, default=-1, help="rows in the grid; use -1 for autodetect and 0 for n_rows to be same as batch_size (default: -1)",)
parser.add_argument("--no-half", action='store_true', help="do not switch the model to 16-bit floats", default=False)
parser.add_argument("--no-progressbar-hiding", action='store_true', help="do not hide progressbar in gradio UI (we hide it because it slows down ML if you have hardware accleration in browser)", default=False)
parser.add_argument("--no-verify-input", action='store_true', help="do not verify input to check if it's too long", default=False)
parser.add_argument("--optimized-turbo", action='store_true', help="alternative optimization mode that does not save as much VRAM but runs siginificantly faster")
parser.add_argument("--optimized", action='store_true', help="load the model onto the device piecemeal instead of all at once to reduce VRAM usage at the cost of performance")
parser.add_argument("--outdir_img2img", type=str, nargs="?", help="dir to write img2img results to (overrides --outdir)", default=None)
parser.add_argument("--outdir_imglab", type=str, nargs="?", help="dir to write imglab results to (overrides --outdir)", default=None)
parser.add_argument("--outdir_txt2img", type=str, nargs="?", help="dir to write txt2img results to (overrides --outdir)", default=None)
parser.add_argument("--outdir", type=str, nargs="?", help="dir to write results to", default=None)
parser.add_argument("--port", type=int, help="choose the port for the gradio webserver to use", default=7860)
parser.add_argument("--precision", type=str, help="evaluate at this precision", choices=["full", "autocast"], default="autocast")
parser.add_argument("--realesrgan-dir", type=str, help="RealESRGAN directory", default=('./src/realesrgan' if os.path.exists('./src/realesrgan') else './RealESRGAN'))
parser.add_argument("--realesrgan-model", type=str, help="Upscaling model for RealESRGAN", default=('RealESRGAN_x4plus'))
parser.add_argument("--save-metadata", action='store_true', help="Store generation parameters in the output png. Drop saved png into Image Lab to read parameters", default=False)
parser.add_argument("--share-password", type=str, help="Sharing is open by default, use this to set a password. Username: webui", default=None)
parser.add_argument("--share", action='store_true', help="Should share your server on gradio.app, this allows you to use the UI from your mobile app", default=False)
parser.add_argument("--skip-grid", action='store_true', help="do not save a grid, only individual samples. Helpful when evaluating lots of samples", default=False)
parser.add_argument("--skip-save", action='store_true', help="do not save indiviual samples. For speed measurements.", default=False)
parser.add_argument('--no-job-manager', action='store_true', help="Don't use the experimental job manager on top of gradio", default=False)
parser.add_argument("--max-jobs", type=int, help="Maximum number of concurrent 'generate' commands", default=1)

可以看出–gpu默认是0,如果有多张卡我们可以指定某个卡进行操作。

另外:所以启动注意事项:如果是docker启动那么可以
docker run -d –gpus ‘“device=2”’

另外注意启动模式:文章来源地址https://www.toymoban.com/news/detail-512483.html


if [ "${RUN_MODE}" = "OPTIMIZED" ] ; then
  echo "Running OPTIMIZED mode"
  RUN_ARGS="--gfpgan-cpu --esrgan-cpu --optimized"
elif [ "${RUN_MODE}" = "OPTIMIZED-TURBO" ] ; then
  echo "Running OPTIMIZED-TURBO mode"
  RUN_ARGS="--gfpgan-cpu --esrgan-cpu --optimized-turbo"
elif [ "${RUN_MODE}" = "GTX16" ] ; then
  echo "Running GTX16 mode"
  RUN_ARGS="--precision full --no-half --gfpgan-cpu --esrgan-cpu --optimized"
elif [ "${RUN_MODE}" = "GTX16-TURBO" ] ; then
  echo "Running GTX16-TURBO mode"
  RUN_ARGS="--precision full --no-half --gfpgan-cpu --esrgan-cpu --optimized-turbo"
elif [ "${RUN_MODE}" = "FULL-PRECISION" ] ; then
  echo "Running FULL-PRECISION mode"
  RUN_ARGS="--precision full --precision=full --no-half"
else
  echo "Running default mode"
fi


到了这里,关于AI绘画stable-diffusion-webui指定GPU某个卡进行撸羊毛的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • stable-diffusion-webui(AI绘画)项目实现,即遇到的问题

    为了使环境中的库版本不会乱,导致自己电脑原来一些项目无法运行最好使用虚拟环境 下载miniconda  在搜索中搜所miniconda找到 建立虚拟环境 每次运行激活这个虚拟环境 下载git 安装cuda,下面有详细安装流程 进入大点的盘下部署项目 下载初始模型如果不下载好像在使用时会

    2024年02月04日
    浏览(57)
  • AI绘画第一步,安装Stable-Diffusion-WebUI全过程 !

    别玩那些小孩子的玩意儿了,大人应该玩这些^_^! 我是真没想到,AI绘画已经进化到这种程度了。 实在是太!逼!真! 了!不上重马赛克都不敢贴图! 看了这些图,有没有心痒痒的?今天就来带大家入个门!先把软件搞起来。 这里用的软件叫“stable-diffusion-webui” ,严格意义

    2024年02月03日
    浏览(68)
  • 【AI绘画】云服务器部署stable-diffusion-webui保姆级教程

    之前给大家写过Mac苹果笔记本上部署stable-diffusion-webui的教程,知乎链接: 【奶奶看了也不会】AI绘画 Mac安装stable-diffusion-webui绘制AI妹子保姆级教程 但是安装过程就花了一天的时间,各种问题处理起来真是苦不堪言。。。而且生成图的速度也很慢,一张512 x 512大小的图片就要

    2024年02月09日
    浏览(59)
  • Ubuntu20.04本地部署Stable-Diffusion-webui AI绘画环境

    最近AI绘画很火,所以想在本地部署个环境体验一下。原本打算在Windows下安装,网上有很多教程,也有很多大佬做了整合包,可是我的Windows系统下的显卡驱动版本太低,也没法升级,只能装CUDA9,导致安装torch会出现问题。所以考虑在Ubuntu下安装,参考了几篇文章,所幸也安

    2023年04月11日
    浏览(87)
  • 你到现在还不会用ai给自己创造想要的图片吗?stable-diffusion-webui新手安装教程(ai绘画,简单操作,无难度)

    ai绘画在当前已经越来越火爆了,你还不会利用ai帮你生成既能商用又有创意的图片吗?下面是教科书级别的安装教程,一步一步教你安装stable-diffusion-webui,让你成为ai画师! 第一步:下载git : https://git-scm.com/ ①点击首页中的Downloads ②选择你的电脑,下面我以windows为主,点

    2024年02月10日
    浏览(52)
  • Ubuntu18.04本地部署Stable-Diffusion-webui绘画

    记录Ubuntu下安装Stable-Diffusion-webui,比较简单,以供参考。 一、安装cuda 支持安装的cuda版本可以用nvidia-smi命令查看:   显卡驱动支持的cuda版本最高是11.4,可以在这里下载对应的cuda版本:CUDA Toolkit Archive | NVIDIA Developer(https://developer.nvidia.com/cuda-toolkit-archive)。由于之前安装别

    2024年02月11日
    浏览(71)
  • 建Stable-Diffusion-Webui的AI

    人工智能,丹青圣手,全平台(原生/Docker)构建Stable-Diffusion-Webui的AI绘画库教程(Python3.10/Pytorch1.13.0) - 知乎

    2024年02月16日
    浏览(52)
  • novel Ai (stable-diffusion-webui)安装

    环境 英伟达显卡 win11 可以连接github并下载内容 安装 python 3.10.6及以上,安装并添加到path 安装 cuDNN 和 CUDAToolKit 先更新主机的显卡驱动,检查系统的显卡驱动版本的CUDA版本(电脑右下角:NVIDIA设置 - NVIDIA控制面板 - 左下角:系统信息 - 选项卡:组件 - 3D设置找CUDA:产品名称)

    2024年02月02日
    浏览(43)
  • 【AI】Stable-Diffusion-WebUI使用指南

    注:csdn对图片有审核,审核还很奇葩,线稿都能违规,为保证完整的阅读体验建议移步至个人博客阅读 最近AI绘画实现了真人照片级绘画水准,导致AI绘画大火,公司也让我研究研究,借此机会正好了解一下深度学习在AIGC(AI Generated Content)----人工智能自动内容生成领域的应用

    2024年02月07日
    浏览(63)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包