解决ubuntu cuda版本nvcc -V和nvidia-smi不一致问题

这篇具有很好参考价值的文章主要介绍了解决ubuntu cuda版本nvcc -V和nvidia-smi不一致问题。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

在使用nvcc -V和nvidia-smi查看cuda版本时不一致:

nvcc -V版本是10.1

解决ubuntu cuda版本nvcc -V和nvidia-smi不一致问题,ubuntu,环境部署,cuda

nvidia-smi的版本是12.2

解决ubuntu cuda版本nvcc -V和nvidia-smi不一致问题,ubuntu,环境部署,cuda

上面如果能显示版本,所以是已经有驱动,首先要删除之前的驱动:

1、执行以下命令,删除旧版本的驱动

sudo apt-get purge nvidia*

解决ubuntu cuda版本nvcc -V和nvidia-smi不一致问题,ubuntu,环境部署,cuda

此时执行nvidia-smi,会提示Command 'nvidia-smi' not found,按照提示安装即可:

解决ubuntu cuda版本nvcc -V和nvidia-smi不一致问题,ubuntu,环境部署,cuda

sudo apt install nvidia-utils-535-server

解决ubuntu cuda版本nvcc -V和nvidia-smi不一致问题,ubuntu,环境部署,cuda

安装成功后,再次执行nvidia-smi,成功,显示cuda版本为12.2

解决ubuntu cuda版本nvcc -V和nvidia-smi不一致问题,ubuntu,环境部署,cuda

2、下载对应版本的cuda

CUDA Toolkit 12.2 Downloads | NVIDIA Developer

依次选择对应选项即可:

获取下载链接:

wget https://developer.download.nvidia.com/compute/cuda/12.2.0/local_installers/cuda_12.2.0_535.54.03_linux.run
sudo sh cuda_12.2.0_535.54.03_linux.run

解决ubuntu cuda版本nvcc -V和nvidia-smi不一致问题,ubuntu,环境部署,cuda

cuda成功下载界面如下:

解决ubuntu cuda版本nvcc -V和nvidia-smi不一致问题,ubuntu,环境部署,cuda

3、安装

执行原始命令安装会报错,改为以下命令成功:

sudo sh ./cuda_12.2.0_535.54.03_linux.run --toolkit --silent --override

解决ubuntu cuda版本nvcc -V和nvidia-smi不一致问题,ubuntu,环境部署,cuda

上述命令安装成功

此时再次执行,nvcc -V提示,Command 'nvcc' not found,……,不要按照提示安装nvidia-cuda-toolkit,否则,前面的白费了,此时只需要配置环境变量:

解决ubuntu cuda版本nvcc -V和nvidia-smi不一致问题,ubuntu,环境部署,cuda

4、添加环境变量

执行:vim ~/.bashrc,打开文件:

增加(此处要根据自己的目录对应修改):

export LD_LIBRARY_PATH=/usr/local/cuda-12.2/lib64
export PATH=$PATH:/usr/local/cuda-12.2/bin

解决ubuntu cuda版本nvcc -V和nvidia-smi不一致问题,ubuntu,环境部署,cuda

执行:source ~/.bashrc,立即生效

再次执行:nvcc -V,成功

解决ubuntu cuda版本nvcc -V和nvidia-smi不一致问题,ubuntu,环境部署,cuda

至此,结束。

 本文参考:

在linux上安装cuda的时候报错:Existing package manager installation of the driver found._点亮~黑夜的博客-CSDN博客

 CUDA已经安装但nvcc -V显示command not found(Ubuntu20.04LTS系统)

https://www.cnblogs.com/ksky-2023/p/17389977.html文章来源地址https://www.toymoban.com/news/detail-555237.html

到了这里,关于解决ubuntu cuda版本nvcc -V和nvidia-smi不一致问题的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • Ubuntu下nvidia-smi失败,使用dkms解决

    nvidia-smi显示无法与驱动通讯 一般来说是因为机器重启linux内核自动更新导致,可以尝试回退内核版本,或者使用dkms安装该内核下驱动配套的包,这里主要介绍使用dkms如何处理 查看已安装的nvidia驱动版本 显示 说明我电脑上nvidia驱动的版本是nvidia-525.116.04 安装dkms和相关包 安

    2024年02月13日
    浏览(36)
  • nvidia/cuda doker容器使用nvidia-smi不能找到命令

    参考资料 NVIDIA官方安装文档 CSDN博客 运行环境 wsl子系统Ubuntu 20.04 docker19.03以上 问题:使用docker pull nvidia/cuda:11.4.2-cudnn8-runtime-rockylinux8 在容器中使用nVidia-smi 出现命令无法找到的问题 百度好久,看了几篇文章,最后发现运行cuda的容器不支持调用主机的显卡,需要下载nvidia-

    2023年04月08日
    浏览(47)
  • Ubuntu服务器有一张显卡nvidia-smi指令不能显示问题(未解决)

    问题描述: 服务器重装Ubuntu 22.04系统,具备10张显卡,使用nvidia-smi显示只有9张显卡,有一张显卡消失了,重装驱动也不能解决问题。参考博客:(600条消息) ubuntu 18.04 两张GPU显卡,nvidia-smi只显示一张_nvidia-smi只显示一张显卡_Jason.su.ai的博客-CSDN博客  1、使用lspci |grep NVIDIA指令

    2024年02月11日
    浏览(35)
  • 解决 Ubuntu 重启后输入 nvidia-smi 显示 no devices were found 的问题

    根据下面的链接,使用 ubuntu-drivers devices 和 sudo ubuntu-drivers install 安装推荐的版本后 Ubuntu 卸载重装 Nvidia 显卡驱动-CSDN博客 第一次重启电脑是可以使用显卡驱动的,但是之后每次再重启后再输入 nvidia-smi,就会显示:no devices were found 最初一周我一直都懒得搜到底是为什么会出

    2024年01月23日
    浏览(49)
  • 一次必搞定Ubuntu上安装nvidia驱动教程--nvidia-smi

    Nvidia官网 (https://www.nvidia.cn/) Nvidia驱动下载地址:https://www.nvidia.cn/Download/index.aspx?lang=cn NVIDIA显卡驱动可以通过如下指令删除以前安装的NVIDIA驱动版本,重新安装。 注意!在安装NVIDIA驱动以前需要禁止系统自带显卡驱动nouveau:可以先通过指令lsmod | grep nouveau查看nouveau驱动的启

    2024年02月17日
    浏览(40)
  • ubuntu20.04装显卡驱动nvidia-smi显示成功的血泪史

    注意这只是我个人在安装驱动过程中踩过的坑,不要直接照着我的方法装 在csnd上看了许多教程,最终选择直接命令行输入 ubuntu-drivers devices 可以看到推荐的版本是525 于是执行sudo apt install nvidia-driver-525(好像这一步执行完后没有报错) 打开软件更新看到  然后我就根据网上

    2023年04月15日
    浏览(41)
  • nvidia-smi报错(已解决):NVIDIA-SMI has failed because it couldn‘t communicate with the NVIDIA driver 原因分析

    基本是follow下面教程修复的 nvidia-smi报错:NVIDIA-SMI has failed because it couldn‘t communicate with the NVIDIA driver 原因及避坑解决方案_打拳的土豆的博客-CSDN博客 1 背景分析: 可能是由于断电重启造成的 当再次跑实验时,发现cuda不可用,于是输入“nvidia-smi”才发现了一个错误,如下:

    2024年02月09日
    浏览(84)
  • 【已解决】nvidia-smi不显示正在使用GPU的进程

    环境: 远程服务器Ubuntu20.04 CUDA 11.6 现象:在日志文件和终端均显示Python脚本已使用了GPU 但是 nvidia-smi 中的 Processes 进程无显示 首先,可以看到 GPU显存被占用,换言之有实例在正常使用GPU,表明不是硬件、显卡驱动等问题。 检查Pytorch是否正确配置 证明也不是Pytorch的问题 接

    2024年01月25日
    浏览(54)
  • docker内部执行nvidia-smi无任何显示的解决方法

    贺志国 2023.4.11 今天在Docker内部编译程序,发现与 CUDA 相关的代码居然没有编译,于是在Docker内部执行Nvidia显卡驱动检测命令 nvidia-smi ,执行完毕后,无任何输出,也没有任何报错信息,但在Docker外部执行该命令,结果如下图所示,没有任何异常: 最开始我以为是Docker启动有

    2024年02月07日
    浏览(50)
  • 【已解决】nvidia-smi报错:NVIDIA-SMI has failed because it couldn’t communicate with the ... 阿里云GPU服务器

    如题,起因是在阿里云GPU服务器上,使用原先正常运行的镜像生成了容器,但容器的显卡驱动出问题了,使用nvidia-smi命令会报错 NVIDIA-SMI has failed because it couldn’t communicate with the NVIDIA driver. 尝试使用官网.run文件重新安装显卡驱动会报错ERROR: Unable to load the kernel module ‘nvidia

    2024年02月11日
    浏览(39)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包