nvcc --version和nvidia-smi显示的CUDA Version不一致

这篇具有很好参考价值的文章主要介绍了nvcc --version和nvidia-smi显示的CUDA Version不一致。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

一、版本不同的原因

CUDA有两种API,一个是驱动API(Driver Version),依赖NVIDIA驱动,由nvidia-smi查看,另一个是运行API(Runtime Version)是软件运行所需要的,一般驱动API版本>=运行API版本即可。

驱动API的依赖文件由GPU driver installer安装,nvidia-smi属于这一类API;

运行API的依赖文件由CUDA Toolkit installer安装。

参考链接:https://codeantenna.com/a/5eVVAE9Q27

二、CUDA和CUDNN

1、什么是CUDA

        CUDA(ComputeUnified Device Architecture),是显卡厂商NVIDIA推出的运算平台。 CUDA是一种由NVIDIA推出的通用并行计算架构,该架构使GPU能够解决复杂的计算问题。


2、什么是CUDNN

        NVIDIA cuDNN是用于深度神经网络的GPU加速库。它强调性能、易用性和低内存开销。NVIDIA cuDNN可以集成到更高级别的机器学习框架中,如谷歌的Tensorflow、加州大学伯克利分校的流行caffe软件。简单的插入式设计可以让开发人员专注于设计和实现神经网络模型,而不是简单调整性能,同时还可以在GPU上实现高性能现代并行计算。

三、window查看CUDA和CUDNN版本

1、查看 CUDA 版本

在命令行中执行:

nvcc --version

或者进入 CUDA 的安装目录查看:

C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA

2、查看 cuDNN 版本

进入 CUDA 的安装目录查看文件 cudnn_version.h :

C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v11.1\include\cudnn_version.h

如下所示,cuDNN 版本为 8.1.1 :

nvcc --version和nvidia-smi显示的CUDA Version不一致

3、查看python版本

查看python所在位置  where python

直接在命令行输入python就可以看到版本

nvcc --version和nvidia-smi显示的CUDA Version不一致

 4、查看tensorflow版本

pip list

nvcc --version和nvidia-smi显示的CUDA Version不一致

 文章来源地址https://www.toymoban.com/news/detail-497022.html

到了这里,关于nvcc --version和nvidia-smi显示的CUDA Version不一致的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 在docker里使用gpu的解决方案(镜像内安装驱动使用nvidia-smi后显示Failed to initialize NVML: Driver/library version mismatch)

    要么在docker环境内安装nvidia-driver 但容易和外面的版本不一致导致各种报错version mismatch之类的 不如使用nvidia-docker,这是一个nVidia官方为了方便在docker镜像容器内使用gpu做的包: 1. 保证docker环境内没有nvidia驱动程序,防止后续配置出现驱动版本不一致的情况         找到你要

    2024年01月21日
    浏览(47)
  • NIVDIA控制面板与电脑“应用”CUDA、cmd下nvcc --version命令显示版本不同

            最初官方驱动 | NVIDIA安装CUDA11.6+cudnn8.3CUDA Deep Neural Network (cuDNN) | NVIDIA Developer,后显卡驱动自动更新,环境都可使用,但以后新装不知该以哪个为准。 目录 背景 一、查看CUDA版本信息: 1.1 cmd版本CUDA 11.6: ​​​​​​​ 1.2 电脑驱动显示12.3和11.6 1.2.1 NIVIDIA控制面板

    2024年04月16日
    浏览(35)
  • nvidia/cuda doker容器使用nvidia-smi不能找到命令

    参考资料 NVIDIA官方安装文档 CSDN博客 运行环境 wsl子系统Ubuntu 20.04 docker19.03以上 问题:使用docker pull nvidia/cuda:11.4.2-cudnn8-runtime-rockylinux8 在容器中使用nVidia-smi 出现命令无法找到的问题 百度好久,看了几篇文章,最后发现运行cuda的容器不支持调用主机的显卡,需要下载nvidia-

    2023年04月08日
    浏览(47)
  • 【已解决】nvidia-smi不显示正在使用GPU的进程

    环境: 远程服务器Ubuntu20.04 CUDA 11.6 现象:在日志文件和终端均显示Python脚本已使用了GPU 但是 nvidia-smi 中的 Processes 进程无显示 首先,可以看到 GPU显存被占用,换言之有实例在正常使用GPU,表明不是硬件、显卡驱动等问题。 检查Pytorch是否正确配置 证明也不是Pytorch的问题 接

    2024年01月25日
    浏览(54)
  • docker内部执行nvidia-smi无任何显示的解决方法

    贺志国 2023.4.11 今天在Docker内部编译程序,发现与 CUDA 相关的代码居然没有编译,于是在Docker内部执行Nvidia显卡驱动检测命令 nvidia-smi ,执行完毕后,无任何输出,也没有任何报错信息,但在Docker外部执行该命令,结果如下图所示,没有任何异常: 最开始我以为是Docker启动有

    2024年02月07日
    浏览(50)
  • ubuntu20.04装显卡驱动nvidia-smi显示成功的血泪史

    注意这只是我个人在安装驱动过程中踩过的坑,不要直接照着我的方法装 在csnd上看了许多教程,最终选择直接命令行输入 ubuntu-drivers devices 可以看到推荐的版本是525 于是执行sudo apt install nvidia-driver-525(好像这一步执行完后没有报错) 打开软件更新看到  然后我就根据网上

    2023年04月15日
    浏览(41)
  • Ubuntu服务器有一张显卡nvidia-smi指令不能显示问题(未解决)

    问题描述: 服务器重装Ubuntu 22.04系统,具备10张显卡,使用nvidia-smi显示只有9张显卡,有一张显卡消失了,重装驱动也不能解决问题。参考博客:(600条消息) ubuntu 18.04 两张GPU显卡,nvidia-smi只显示一张_nvidia-smi只显示一张显卡_Jason.su.ai的博客-CSDN博客  1、使用lspci |grep NVIDIA指令

    2024年02月11日
    浏览(35)
  • 解决 Ubuntu 重启后输入 nvidia-smi 显示 no devices were found 的问题

    根据下面的链接,使用 ubuntu-drivers devices 和 sudo ubuntu-drivers install 安装推荐的版本后 Ubuntu 卸载重装 Nvidia 显卡驱动-CSDN博客 第一次重启电脑是可以使用显卡驱动的,但是之后每次再重启后再输入 nvidia-smi,就会显示:no devices were found 最初一周我一直都懒得搜到底是为什么会出

    2024年01月23日
    浏览(48)
  • 【nvidia-smi:command not found】如何在集群服务器上使用nvidia-smi查看GPU信息

    1. nvidia-smi指令输出分析 对于普通的多卡服务器,nvidia-smi命令可以显示有关 NVIDIA 显卡和 GPU 的详细信息,如输入 得到以下输出,可以看到相应的CUDA版本,GPU显存大小等信息。 2. 集群上使用nvidia-smi指令 如果登录了服务器后,直接在命令行中输入nvidia-smi,会有如下报错: b

    2024年02月10日
    浏览(60)
  • Linux | nvidia-smi 命令使用记录

    参考文章链接:https://blog.csdn.net/weixin_44966641/article/details/121228579 nvidia smi(也称为NVSMI)为来自 Fermi 和更高体系结构系列的 nvidia Tesla、Quadro、GRID 和 GeForce 设备提供监控和管理功能。GeForce Titan系列设备支持大多数功能,为GeForce品牌的其余部分提供的信息非常有限。NVSMI是一种

    2024年02月02日
    浏览(47)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包