运行nvidia-smi 和nvcc -V 出现的版本不一致问题详解

这篇具有很好参考价值的文章主要介绍了运行nvidia-smi 和nvcc -V 出现的版本不一致问题详解。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

相关概念

CUDA 有两种API,分别是驱动API和 运行时 API 。

nvidia-smi:如果能正常使用,则说明Driver API 已经安装,nvidia-smi显示的是支持的最高的cuda版本,是向下兼容的
nvcc -V :是指实际安装的cuda toolkit 必须小于等于driver API支持的最高版本。

cuda卸载

非常感谢这篇博客,没有它我一天都卸载不了

cuda安装

cuda安装教程1
cuda安装教程2
cuda 官网

安装pytorch

https://pytorch.org/get-started/previous-versions

我遇到的问题

我的服务器镜像已经安装了GPU驱动和cuda10.2(cuda toolkit) ,但是RTX 3090 的算力是sm_86,cuda10.x是不支持这个算力的,因此需要安装cuda11.x才可以。

RTX3090算力对应关系文章来源地址https://www.toymoban.com/news/detail-651600.html

到了这里,关于运行nvidia-smi 和nvcc -V 出现的版本不一致问题详解的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 解决没有NVSMI文件夹以及nvidia-smi‘ 不是内部或外部命令,也不是可运行的程序 或批处理文件

    去英伟达官网下载显卡驱动,对显卡进行升级即可。 方法:将NVSMI文件夹添加到系统环境变量中即可。 在系统变量path里面添加上面的路径,就可以访问到这个命令,就可以执行了。 执行命令的方法:win+r打开输入cmd 然后输入:nvidia-smi 去英伟达官网下载 CUDA:https://developer

    2024年02月16日
    浏览(49)
  • 解决 Ubuntu 重启后输入 nvidia-smi 显示 no devices were found 的问题

    根据下面的链接,使用 ubuntu-drivers devices 和 sudo ubuntu-drivers install 安装推荐的版本后 Ubuntu 卸载重装 Nvidia 显卡驱动-CSDN博客 第一次重启电脑是可以使用显卡驱动的,但是之后每次再重启后再输入 nvidia-smi,就会显示:no devices were found 最初一周我一直都懒得搜到底是为什么会出

    2024年01月23日
    浏览(39)
  • 【nvidia-smi:command not found】如何在集群服务器上使用nvidia-smi查看GPU信息

    1. nvidia-smi指令输出分析 对于普通的多卡服务器,nvidia-smi命令可以显示有关 NVIDIA 显卡和 GPU 的详细信息,如输入 得到以下输出,可以看到相应的CUDA版本,GPU显存大小等信息。 2. 集群上使用nvidia-smi指令 如果登录了服务器后,直接在命令行中输入nvidia-smi,会有如下报错: b

    2024年02月10日
    浏览(45)
  • Linux | nvidia-smi 命令使用记录

    参考文章链接:https://blog.csdn.net/weixin_44966641/article/details/121228579 nvidia smi(也称为NVSMI)为来自 Fermi 和更高体系结构系列的 nvidia Tesla、Quadro、GRID 和 GeForce 设备提供监控和管理功能。GeForce Titan系列设备支持大多数功能,为GeForce品牌的其余部分提供的信息非常有限。NVSMI是一种

    2024年02月02日
    浏览(31)
  • nvidia-smi报错(已解决):NVIDIA-SMI has failed because it couldn‘t communicate with the NVIDIA driver 原因分析

    基本是follow下面教程修复的 nvidia-smi报错:NVIDIA-SMI has failed because it couldn‘t communicate with the NVIDIA driver 原因及避坑解决方案_打拳的土豆的博客-CSDN博客 1 背景分析: 可能是由于断电重启造成的 当再次跑实验时,发现cuda不可用,于是输入“nvidia-smi”才发现了一个错误,如下:

    2024年02月09日
    浏览(72)
  • nvidia/cuda doker容器使用nvidia-smi不能找到命令

    参考资料 NVIDIA官方安装文档 CSDN博客 运行环境 wsl子系统Ubuntu 20.04 docker19.03以上 问题:使用docker pull nvidia/cuda:11.4.2-cudnn8-runtime-rockylinux8 在容器中使用nVidia-smi 出现命令无法找到的问题 百度好久,看了几篇文章,最后发现运行cuda的容器不支持调用主机的显卡,需要下载nvidia-

    2023年04月08日
    浏览(39)
  • 矩池云上使用nvidia-smi命令教程

    nvidia-smi全称是NVIDIA System Management Interface ,它是一个基于NVIDIA Management Library(NVML)构建的命令行实用工具,旨在帮助管理和监控NVIDIA GPU设备。 接下来我介绍一下,用nvidia-smi命令来查询机器GPU使用情况的相关内容。​ 我以上图的查询内容为例,已经复制出来了,如下, 我们来

    2024年02月16日
    浏览(33)
  • 一次必搞定Ubuntu上安装nvidia驱动教程--nvidia-smi

    Nvidia官网 (https://www.nvidia.cn/) Nvidia驱动下载地址:https://www.nvidia.cn/Download/index.aspx?lang=cn NVIDIA显卡驱动可以通过如下指令删除以前安装的NVIDIA驱动版本,重新安装。 注意!在安装NVIDIA驱动以前需要禁止系统自带显卡驱动nouveau:可以先通过指令lsmod | grep nouveau查看nouveau驱动的启

    2024年02月17日
    浏览(28)
  • 【已解决】nvidia-smi报错:NVIDIA-SMI has failed because it couldn’t communicate with the ... 阿里云GPU服务器

    如题,起因是在阿里云GPU服务器上,使用原先正常运行的镜像生成了容器,但容器的显卡驱动出问题了,使用nvidia-smi命令会报错 NVIDIA-SMI has failed because it couldn’t communicate with the NVIDIA driver. 尝试使用官网.run文件重新安装显卡驱动会报错ERROR: Unable to load the kernel module ‘nvidia

    2024年02月11日
    浏览(27)
  • 深度学习烦人的基础知识(2)---Nvidia-smi功率低,util高---nvidia_smi参数详解

    如下图所示,GPU功率很低,Util占用率高。 这个训练时不正常的! Pwr是指GPU运行时耗电情况,如图中GPU满载是300W,目前是86W与GPU2的空载情况功率相等。说明GPU没有在真正运行。 GPU-Util高说明它的核心被占用了,占用率为100%。 打个比方,把GPU看做是人。三个人,一个在举重,

    2024年01月16日
    浏览(30)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包