服务器已经存在CUDA但无法使用GPU

这篇具有很好参考价值的文章主要介绍了服务器已经存在CUDA但无法使用GPU。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

记录一下我使用服务器期间遇到的问题以及解决方法(主要使用tensorflow)

先介绍一下我本次遇到的问题:

我在服务器上拥有一个独立的账号,我发现我的tensorflow无法调用GPU,先排查可能存在的问题

终端输入

nvcc -V

结果如下:

安装了cuda却不调用gpu,服务器,运维,tensorflow

显示已经安装了11.8版本的CUDA

 但是在python文件中调用

import tensorflow as tf

print(tf.test.is_gpu_available())

结果显示为false

 在终端输入

echo $LD_LIBRARY_PATH

结果为空,猜测是没有安装cudnn,以下是解决过程

首先进入官网下载一个适配的cudnn版本,官网链接

安装了cuda却不调用gpu,服务器,运维,tensorflow

因为我的CUDA版本是11.8,我选择v8.9.0 for CUDA 11.x的版本

下载后是一个.tar.xz的文件,直接上传到服务器中你的文件夹下,然后使用下面两条指令进行解压

xz -d cudnn-linux-x86_64-8.9.0.131_cuda11-archive.tar.xz

tar -xvf cudnn-linux-x86_64-8.9.0.131_cuda11-archive.tar

 解压得到一个文件夹,进入后包含下面三个

安装了cuda却不调用gpu,服务器,运维,tensorflow

 然后我们进入你个人账户下的.bashrc文件,在其中添加这样一行内容(根据你自己的路径进行更改):

export LD_LIBRARY_PATH="/home/Users/qjw/cudnn-linux-x86_64-8.9.0.131_cuda11-archive/lib:$LD_LIBRARY_PATH"

之后保存.bashrc文件,然后在终端输入下面这个指令(我是在.bashrc文件这一层输入的,注意终端路径

source ./.bashrc

然后再次运行python代码:

import tensorflow as tf

print(tf.test.is_gpu_available())

 结果如下:

安装了cuda却不调用gpu,服务器,运维,tensorflow

 输出True,问题解决

希望可以帮到你文章来源地址https://www.toymoban.com/news/detail-781891.html

到了这里,关于服务器已经存在CUDA但无法使用GPU的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • HTTP状态 404 - 未找到 类型 状态报告 消息 请求的资源[]不可用 描述 源服务器未能找到目标资源的表示或者是不愿公开一个已经存在的资源表示。 Apache Tomcat/8.5.70

    Idea启动javaweb 程序报错 HTTP状态 404 - 未找到 类型 状态报告 消息 请求的资源[]不可用 描述 源服务器未能找到目标资源的表示或者是不愿公开一个已经存在的资源表示。 Apache Tomcat/8.5.70 在本地可以启动tomcat,用idea启动tomcat项目报错。 最下面不能选中Build ,要选中下面那个点

    2024年02月11日
    浏览(51)
  • 本地连接服务器使用GPU训练模型

    直接运行上面的文件,然后输入密码,这密码不是服务器的密码,但是可以直接连接到服务器上面,这个东西是什么?好厉害,居然可以跳过去服务器的账号密码 我本来想忽略一些不需要上传文件,但是无法成功忽略,scp好像不支持 下面这个命令是从服务器上面传输数据到

    2024年02月07日
    浏览(51)
  • 如何在服务器使用GPU跑深度学习代码

    每个人都有他们偏好的工具和工作流程。就我个人而言,我喜欢使用 PyCharm Professional Edition 作为我的集成开发环境,选择使用 HengYuan Cloud\\\'s OSS.exe 和 FileZilla 进行文件传输,并且我倾向于使用 Xshell 来处理命令行操作。这些工具的组合满足了我的所有需求,并使我的工作效率最

    2024年04月12日
    浏览(49)
  • 北京超级云计算GPU服务器的使用教程

    北京超级云计算中心(北京超算云)是一个很不错的训练深度学习模型的平台(主要是可以白嫖200元的GPU算力资源),官网连接。申请账号现在应该还送200元(我申请使用的是GPU服务器)。在官网中填写申请信息,然后等着客户经理给你打电话,然后把你的需求说清楚,第二

    2024年02月02日
    浏览(46)
  • (一)ssh远程连接服务器GPU以及其他GPU使用途径——新手指南

    最近在训练语义分割网络时决定使用GPU,本文记录新手在使用GPU时遇到的一些坑。想要在win10系统上配置GPU运行Pytorch代码可以考虑以下几种方式: 安装cuda,以及GPU版本的pytorch和torchvision,使用电脑自带的GPU进行网络训练; 远程连接实验室的服务器,通过IP、账号以及密码进

    2024年02月08日
    浏览(46)
  • 利用Google Colab免费使用GPU服务器详细攻略

    目录 前言 一、Colab限额、提供的GPU类型 二、Colab的使用步骤(如何使用免费GPU资源) 1、添加Colaboratory 2、新建Colab、连接GPU、挂载Google Driver 3、项目上传文件并运行 三、快速下载/上传Google Drive文件的方法(利用MultiCloud) 四、其他相关技巧 Google Colab是一个基于云端的免费

    2024年02月09日
    浏览(51)
  • 配置使用云服务器训练神经网络模型——在阿里GPU服务器训练yolov5模型

    对于没有GPU训练机的人来讲,使用云服务器训练自己的模型应该最最优选择,只是在训练的时候开个按时计费的服务器,训练完成后保存环境镜像之后,可以完全停掉服务器,期间不产生任何费用,下次再训练时,启动环境就可以,很容易保护好自己的训练环境不受污染。

    2024年02月06日
    浏览(61)
  • 华为云GPU服务器使用PaddleClas和PaddleServing训练、部署车辆类型分类模型服务

    以下针对最近使用PaddleClas和PaddleServing在华为云GPU服务器上训练和部署一个车辆类型识别模型过程进行记录,以供日后自己参考和其他有需要的朋友一些帮助,接触这方面东西时间较短,如有问题欢迎批评指正。 如何在华为云服务器上搭建GPU版本的PaddlePaddle环境请参考以下文

    2024年02月13日
    浏览(40)
  • GPU版pytorch安装成功却无法使用cuda

    在远程服务器安装pytorch,根据官网命令进行安装,但在完成之后,显示GPU不可用,故记录此大坑。 一、根据官网进行安装  安装的很快,但是!!安装结束之后,输入以下代码进行安装验证却显示没有成功安装!! 所以这表明安装大失败! 但是不死心的我又输入以下语句来

    2024年02月11日
    浏览(45)
  • 【超简易安装】在linux集群服务器上使用conda安装高版本cuda(cuda-11.8)和pytorch2.0

    由于项目代码要求pytorch2.0版本,而pytorch2.0版本需要cuda11.8,高于我之前的11.0的cuda版本。 因此考虑使用conda新建一个虚拟环境,在里面使用高版本的cuda和pytorch。 我使用的是lunix多人集群服务器。集群服务器需要用作业调度系统,也就是bsub命令之后才能提交作业,运行任务。

    2024年03月17日
    浏览(65)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包