阿里云服务器执行nvidia-smi命令后提示【No devices were found】

这篇具有很好参考价值的文章主要介绍了阿里云服务器执行nvidia-smi命令后提示【No devices were found】。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

服务器有一段时间没用了,今天想拿来跑模型,结果我查询显卡的时候居然提示“No devices were found”,也不算是报错吧,但是起码是不对的,这个意思就是找不到设备资源了。

这个着实就很奇怪,我并没有做过任何事情就很莫名其妙。

首先查看下显卡是否还在,如下:

lspci | grep -i nvidia

结果如下:

00:08.0 3D controller: NVIDIA Corporation TU104GL [Tesla T4] (rev a1)

说明硬件是还在的。

接下来我的办法就是逐个检查可能存在的问题,首先是CUDA,我是直接下载的安装包进行安装操作,如下:

阿里云服务器执行nvidia-smi命令后提示【No devices were found】

提示已经安装了,那么这里的问题就排除了。

接下来就是安装驱动了,在这里。

阿里云服务器执行nvidia-smi命令后提示【No devices were found】

下载所需要的驱动执行安装命令即可,安装操作也是一路next就行,没有什么特别的地方,我安装完后重新执行nvidia-smi,满心期待以为可以了,结果还是老样子。

最终实在是没办法了我reboot重启了,然后就可以了。。。。

阿里云服务器执行nvidia-smi命令后提示【No devices were found】

后来听组里运维的同学说的,这个应该是阿里云自己出的故障,波及到了我们,哎。。。文章来源地址https://www.toymoban.com/news/detail-505392.html

到了这里,关于阿里云服务器执行nvidia-smi命令后提示【No devices were found】的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • docker内部执行nvidia-smi无任何显示的解决方法

    贺志国 2023.4.11 今天在Docker内部编译程序,发现与 CUDA 相关的代码居然没有编译,于是在Docker内部执行Nvidia显卡驱动检测命令 nvidia-smi ,执行完毕后,无任何输出,也没有任何报错信息,但在Docker外部执行该命令,结果如下图所示,没有任何异常: 最开始我以为是Docker启动有

    2024年02月07日
    浏览(50)
  • Linux | nvidia-smi 命令使用记录

    参考文章链接:https://blog.csdn.net/weixin_44966641/article/details/121228579 nvidia smi(也称为NVSMI)为来自 Fermi 和更高体系结构系列的 nvidia Tesla、Quadro、GRID 和 GeForce 设备提供监控和管理功能。GeForce Titan系列设备支持大多数功能,为GeForce品牌的其余部分提供的信息非常有限。NVSMI是一种

    2024年02月02日
    浏览(47)
  • nvidia-smi报错(已解决):NVIDIA-SMI has failed because it couldn‘t communicate with the NVIDIA driver 原因分析

    基本是follow下面教程修复的 nvidia-smi报错:NVIDIA-SMI has failed because it couldn‘t communicate with the NVIDIA driver 原因及避坑解决方案_打拳的土豆的博客-CSDN博客 1 背景分析: 可能是由于断电重启造成的 当再次跑实验时,发现cuda不可用,于是输入“nvidia-smi”才发现了一个错误,如下:

    2024年02月09日
    浏览(84)
  • nvidia/cuda doker容器使用nvidia-smi不能找到命令

    参考资料 NVIDIA官方安装文档 CSDN博客 运行环境 wsl子系统Ubuntu 20.04 docker19.03以上 问题:使用docker pull nvidia/cuda:11.4.2-cudnn8-runtime-rockylinux8 在容器中使用nVidia-smi 出现命令无法找到的问题 百度好久,看了几篇文章,最后发现运行cuda的容器不支持调用主机的显卡,需要下载nvidia-

    2023年04月08日
    浏览(47)
  • 矩池云上使用nvidia-smi命令教程

    nvidia-smi全称是NVIDIA System Management Interface ,它是一个基于NVIDIA Management Library(NVML)构建的命令行实用工具,旨在帮助管理和监控NVIDIA GPU设备。 接下来我介绍一下,用nvidia-smi命令来查询机器GPU使用情况的相关内容。​ 我以上图的查询内容为例,已经复制出来了,如下, 我们来

    2024年02月16日
    浏览(43)
  • 一次必搞定Ubuntu上安装nvidia驱动教程--nvidia-smi

    Nvidia官网 (https://www.nvidia.cn/) Nvidia驱动下载地址:https://www.nvidia.cn/Download/index.aspx?lang=cn NVIDIA显卡驱动可以通过如下指令删除以前安装的NVIDIA驱动版本,重新安装。 注意!在安装NVIDIA驱动以前需要禁止系统自带显卡驱动nouveau:可以先通过指令lsmod | grep nouveau查看nouveau驱动的启

    2024年02月17日
    浏览(40)
  • 深度学习烦人的基础知识(2)---Nvidia-smi功率低,util高---nvidia_smi参数详解

    如下图所示,GPU功率很低,Util占用率高。 这个训练时不正常的! Pwr是指GPU运行时耗电情况,如图中GPU满载是300W,目前是86W与GPU2的空载情况功率相等。说明GPU没有在真正运行。 GPU-Util高说明它的核心被占用了,占用率为100%。 打个比方,把GPU看做是人。三个人,一个在举重,

    2024年01月16日
    浏览(38)
  • Ubuntu下nvidia-smi失败,使用dkms解决

    nvidia-smi显示无法与驱动通讯 一般来说是因为机器重启linux内核自动更新导致,可以尝试回退内核版本,或者使用dkms安装该内核下驱动配套的包,这里主要介绍使用dkms如何处理 查看已安装的nvidia驱动版本 显示 说明我电脑上nvidia驱动的版本是nvidia-525.116.04 安装dkms和相关包 安

    2024年02月13日
    浏览(36)
  • nvidia-smi no devices were found

    报错:找不到设备 输入 发现显卡其实还在 用NVIDIA-Linux-x86_64-xxx.xxx.run重装了一下显卡驱动,发现还是不行 最后用了另一种安装方式 选择一个 比如选择了525,那就是 安装完了其实还是找不到设备,所以需要重启 然后就好了 参考 https://blog.csdn.net/dujianghai/article/details/125760522

    2024年02月15日
    浏览(41)
  • nvidia-smi 输出“No devices were found

    也不知道是什么原因,输入nvidia-smi会有这个bug。看到一个帖子中遇到和我类似的问题: I have several issues actually, but I am not sure whether they are related. 有一个评论解决了我的问题: 我安装的显卡驱动是nvidia-driver-525-open,带有open,换一个不带open的驱动就好了,鬼bug。 参考:http

    2024年02月11日
    浏览(47)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包