【Pytorch报错】RuntimeError:cuDNN error:CUDNN_STATUS_INTERNAL_ERROR 高效理解记录及解决!

这篇具有很好参考价值的文章主要介绍了【Pytorch报错】RuntimeError:cuDNN error:CUDNN_STATUS_INTERNAL_ERROR 高效理解记录及解决!。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

明明跑了一段时间?跑过一次完整的?怎么就出现这个报错呢?代码也未改动?而这就是现实!文章来源地址https://www.toymoban.com/news/detail-609525.html

显存不足?

  • 观察显卡使用情况,多人共用同一服务器,项目各自运行,会抢占显存,进而报错!
  • 多个项目运行,占用增加,导致内存用完报错,还是很真实的!
  • 文件是否设置了CUDA_VISIBLE_DEVICES?
  • 只有一张卡的话,CUDA_VISIBLE_DEVICES对应编号为0。
  • 如果多张显卡的话,不妨换张卡跑!Linux-ubuntu系统查看显卡型号、显卡信息详解、显卡天梯图
    windows10怎么查看gpu显卡使用情况
  • 位置参考:CUDA_VISIBLE_DEVICES设置要在模型加载到GPU上之前!
import os
os.environ['CUDA_VISIBLE_DEVICES'] = "2"
import torch

Pytorch版本?

  • 未见明显改善。
  • cudatoolkit降级到10.1版可能可以解决这个问题。尝试使用cudatoolkit 10.1重新安装pytorch。
conda install pytorch torchvision cudatoolkit=10.1

编程设置?

# True:每次返回的卷积算法将是确定的,即默认算法。
torch.backends.cudnn.deterministic = True
# 程序在开始时花额外时间,为整个网络的每个卷积层搜索最适合它的卷积实现算法
# 实现网络的加速。
torch.backends.cudnn.benchmark = True
  • torch.backends.cudnn.benchmark = True
  • torch.backends.cudnn.benchmark = False
  • 建议优先尝试!True or False

到了这里,关于【Pytorch报错】RuntimeError:cuDNN error:CUDNN_STATUS_INTERNAL_ERROR 高效理解记录及解决!的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 【报错】RuntimeError: CUDA error: CUBLAS_STATUS_EXECUTION_FAILED when calling `cublasLtMatmul( ltHandle,

    在GPU上运行hugging face transformer的时候出现如下报错: 切换至cpu之后,报错: 根据cpu上的报错内容,判断为 模型输入太长 ,超过了模型的embedding最大尺寸,可以在tokenizer设置 max_len 来进行截断( truncation )。 由于GPU上的报错一般都比较抽象, 建议先在cpu上debug 。有可能你的

    2024年02月14日
    浏览(35)
  • 当出现RuntimeError:CUDA error:no kernel image is available for execution on the device 问题时候的pytorch安装方法

    当出现一个明显的特征就是出现: RuntimeError:CUDA error:no kernel image is av ailable for execution on the device 这就说明你的显卡太低了 可以到这个路径下C:Program FilesNVIDIA GPU Computing ToolkitCUDAv11.1extrasdemo_suite, 找到deviceQuenry.exe这个文件拖到cmd命令窗口运行可以看到自身电脑的算力  从

    2024年02月01日
    浏览(50)
  • 报错解决:RuntimeError: Error compiling objects for extension和nvcc fatal: Unsupported gpu architecture

    博主的软硬件环境(供参考): Linux NVIDIA GeForce RTX 3090 CUDA Driver version 515.76 CUDA 10.2 gcc (Ubuntu 9.4.0-1ubuntu1~20.04.2) 9.4.0 Pytorch 1.10.0+cu102 博主在配置mmdetection3d环境时,运行 pip install -v -e . 会有如下报错: 可能的原因和解决方法如下: 查看GPU的型号: 首先查看cuda版本 输出如下,

    2024年02月13日
    浏览(28)
  • RuntimeError:CUDA error:no kernel image is available for execution on the device报错解决(亲测)

    调试Transformer网络,安装完timm包之后,运行程序时报错 CUDA error:no kernel image is available for execution on the device ,如图所示: 网上对于该错误说啥的都有,因为这是第一次遇到这个错误,之前训练CNN也正常,排除显卡算力低,不支持高版本CUDA问题。看来看去,这位博主说的有道

    2024年02月11日
    浏览(34)
  • RuntimeError: Unable to find a valid cuDNN algorithm to run convolution

    使用yolov5l模型训练时出现报错,但是昨天使用yolov5s模型时是可以正常训练的。 发生报错的原因是gpu内存占用过高,terminal输入nvidia-smi查看gpu的使用情况。   我们需要把bach_size调小,一般建议是8的倍数,内存不够用时尽量调低,此处我设置成了16。 结果运行正常。 使用yol

    2024年02月11日
    浏览(30)
  • 【bug解决】RuntimeError: Unable to find a valid cuDNN algorithm to run convolution

    进行深度学习的算法模型训练的时候,终端报错: 产生报错的原因可能有两种: 1.模型训练的环境中cudnn,CUDA的版本号不匹配 解决办法:安装对应的cudnn,以及cuda,找到对应的torch框架,进行安装 2.其实问题更加简单,是模型的训练的batch-size训练过大了,调整更小,就可以了

    2024年02月11日
    浏览(39)
  • CUDA、cuDNN以及Pytorch介绍

    在讲解cuda和cuDNN之前,我们首先来了解一下英伟达(NVIDA)公司。 NVIDIA是一家全球领先的计算机技术公司,专注于图形处理器(GPU)和人工智能(AI)计算。公司成立于1993年,总部位于美国加利福尼亚州的圣塔克拉拉。NVIDIA的产品和技术广泛应用于各个领域,包括游戏、虚拟

    2024年02月13日
    浏览(36)
  • pytorch环境配置(装cuda、cudnn)win10+cuda10.1+cudnn7.6.5+torch1.7.1 && 集显装pytorch

    为了装这个走了太多坑了,所以想写一篇具体教程,有缘人看吧,希望能解决你的问题。(第一次写文章啥也不懂,万一冒犯了啥,麻烦告知我改) 我anaconda很早就装过了,所以这里就不细说了。 电脑配置:win10+1050显卡(很久前买的电脑的) 一些弯路:现在的pytorch安装是可

    2024年02月04日
    浏览(36)
  • Windows11 安装 CUDA/cuDNN+Pytorch

    一、准备工作: 查看torch版本:进入python交互环境: 查看cuda版本:CMD窗口  如果版本不一致,需要卸载再重装。 二、安装 Windows 安装 CUDA/cuDNN - 知乎 medium - Install CUDA On Windows: The Definitive Guidemedium - Installing CUDA and cuDNN on windows 10windows下安装配置cudn和cudnn版本对应关系需要注意

    2024年02月09日
    浏览(46)
  • NVIDIA、CUDA、CUDNN、PyTorch安装吐血整理!!!

    判断你当前电脑的显卡是NVIDIA(N卡)还是AMD(A卡),Pytorch需要基于NVIDIA的显卡(N卡)上运行,A卡就不行了。 1.判断电脑应该装什么版本的CUDA。 方式一:NVIDIA 控制面板中查看 方式二:CMD查看 CMD中输入: 查看到本机可装CUDA版本12.0,版本向下兼容,意思就是 CUDA 12.0及以下

    2023年04月18日
    浏览(60)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包