查询GPU时无进程运行,但是显存却被占用了

这篇具有很好参考价值的文章主要介绍了查询GPU时无进程运行,但是显存却被占用了。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

查询GPU时无进程运行,但是显存却被占用了

1、具体表现

nvidia-smi或者gpustat无进程在GPU上运行,但GPU显存却被占用了

nvidia-smi没有进程但是显卡内存满的,实践与问题解决,深度学习,pytorch,计算机视觉

2、造成原因

应该是存在僵尸进程,已经运行完毕或者卡死,但是内存没有释放,处于挂起状态

3、解决方案

3.1 方案一

重启电脑

3.2 方案二

如果电脑不能重启,那就通过命令行:

fuser -v /dev/nvidia*
或者有管理员权限的时候
sudo fuser -v /dev/nvidia*

nvidia-smi没有进程但是显卡内存满的,实践与问题解决,深度学习,pytorch,计算机视觉

可以看到对应的设备,是有进程的。

最后就用kill命令行杀掉相应的PID号。

nvidia-smi没有进程但是显卡内存满的,实践与问题解决,深度学习,pytorch,计算机视觉

这样就完事了

nvidia-smi没有进程但是显卡内存满的,实践与问题解决,深度学习,pytorch,计算机视觉文章来源地址https://www.toymoban.com/news/detail-607934.html

到了这里,关于查询GPU时无进程运行,但是显存却被占用了的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • python 查看程序的GPU显存占用

    主要针对显卡: nvidia 初衷:想要看某个python程序的GPU显存占用量 在linux下使用 nvidia-smi 可以直接显示GPU使用情况 1 : 但是在windows下有的时候显示N/A (如下图所示): 未解之谜 2 :Windows下NVIDIA-SMI中为什么看不到GPU Memory 任务管理器也可以查看程序GPU占用信息, 点击 详细信息 , 看

    2023年04月08日
    浏览(27)
  • Ubuntu——系统版本、显存、CPU型号、GPU型号查询

    一、系统版本查询 二、CPU信息查询 三、显存查询 四、GPU显卡信息查询 查询结果如下:系统版本为Ubuntu 20.04.6 LTS 如上图所示,本机的CPU型号信息为 i7-11700k 如上图所示,其显存为12G(12050MiB) 如下图所示,NVIDIA GeForce RTX 3080 Ti 即为本机显卡型号信息

    2024年02月06日
    浏览(41)
  • 【大模型研究】(1):从零开始部署书生·浦语2-20B大模型,使用fastchat和webui部署测试,autodl申请2张显卡,占用显存40G可以运行

    https://www.bilibili.com/video/BV1pT4y1h7Af/ 【大模型研究】(1):从零开始部署书生·浦语2-20B大模型,使用fastchat和webui部署测试,autodl申请2张显卡,占用显存40G可以运行 https://modelscope.cn/models/Shanghai_AI_Laboratory/internlm2-chat-20b/summary InternLM2 开源了一个 200 亿参数的基础模型和一个针对

    2024年01月22日
    浏览(41)
  • 使用autodl服务器,两个3090显卡上运行, Yi-34B-Chat-int4模型,并使用vllm优化加速,显存占用42G,速度23 words/s

    https://www.bilibili.com/video/BV1Hu4y1L7BH/ 使用autodl服务器,两个3090显卡上运行, Yi-34B-Chat-int4模型,用vllm优化,增加 --num-gpu 2,速度23 words/s https://blog.csdn.net/freewebsys/article/details/134698597 安装软件: 先安装最新的torch版本 安装完成之后就可以使用fastchat启动了。 只限制在内蒙古机房

    2024年02月04日
    浏览(34)
  • 使用autodl服务器,在A40显卡上运行, Yi-34B-Chat-int4模型,并使用vllm优化加速,显存占用42G,速度18 words/s

    https://www.bilibili.com/video/BV1gu4y1c7KL/ 使用autodl服务器,在A40显卡上运行, Yi-34B-Chat-int4模型,并使用vllm优化加速,显存占用42G,速度18 words/s 2020年,英伟达发布 A40 专业显卡,配备 48GB 显存。 采用了 GA102 GPU,拥有 10752 个 CUDA 核心。而 A40 是用于服务器的。A40 都配备了四个 DP

    2024年02月04日
    浏览(43)
  • Linux查询内存或CPU占用最多的几个进程

    一、可以使用以下命令查使用内存最多的10个进程 方法1: ps -aux | sort -k4nr | head -10 如果是最高的三个,10改为3即可 命令解释:  1. ps:参数a指代all——所有的进程,u指代userid——执行该进程的用户id,x指代显示所有程序,不以终端机来区分。ps -aux的输出格式如下: USER  

    2024年04月17日
    浏览(32)
  • c#写的端口监听,程序退出后,再次运行提示端口占用,且进程不存在

    我用c#写了一个监听29999端口,进程结束后再次启动发现端口被占用,但是运行netstat -ano | findstr 29999找到进程ID后,却没有这个进程  经查询这个监听29999进程虽然没了,但是要找到他的父进程,把父进程关闭了才可以,参考下面的例子 In the first place, you must find the process that i

    2024年02月11日
    浏览(40)
  • [NLP]LLM 训练时GPU显存耗用量估计

    全精度llama2 7B最低显存要求:28GB 全精度llama2 13B最低显存要求:52GB 全精度llama2 70B最低显存要求:280GB 16精度llama2 7B预测最低显存要求:14GB 16精度llama2 13B预测最低显存要求:26GB 16精度llama2 70B预测最低显存要求:140GB 8精度llama2 7B预测最低显存要求:7GB 8精度llama2 13B预测最低显

    2024年02月12日
    浏览(34)
  • GPU显存占满但利用率却很低

    来帕多瓦联培已经一个多月了,最近调代码跑实验又发现了这个问题。这里提供另外一个解决思路。一个原因还是 cpu没跟上gpu节奏 。 通常我们都会用尽可能大的 batch 来占满显存。但是如果cpu的读取和传输跟不上的话就会导致gpu利用率时上时下,而且训练时间还会变长。 这

    2024年02月04日
    浏览(100)
  • Chat-GLM 详细部署(GPU显存>=12GB)

    1. 下载安装 miniconda3 : https://docs.conda.io/en/latest/miniconda.html conda是一个包和环境管理工具,它不仅能管理包,还能隔离和管理不同python版本的环境。类似管理nodejs环境的nvm工具。 2. conda环境变量: 新建 CONDA_HOME :conda安装路径 3. 激活conda: 打开CMD执行conda init  4. 测试conda安装是

    2023年04月21日
    浏览(34)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包