AssertionError:Torch not compiled with CUDA enabled

这篇具有很好参考价值的文章主要介绍了AssertionError:Torch not compiled with CUDA enabled。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

问题来源:

        在进行 pytorch 的本地 GPU 版本安装过程中屡次碰壁,第一个问题是在 pytorch 官网给的下载命令行执行不成功,第二个是成功在本地 GPU 下载 pytorch 后执行将向量值挪到 cuda 0 上时系统报错,内容为标题所示,这两个问题的具体解决方案如下所述。

解决方法一:

        首先对于第一个问题,由于我本地下载的 cuda version 为11.7,但是由于 pytorch 官网没有更新到 cuda 11.7 版本对应的 pytorch,最高版本只有 cuda 11.6 对应的 pytorch,故我选择下载 cuda 11.6 对应的 pytorch 版本。值得注意的是,若你的本地 cuda 也同样为 11.x,则不应该下载 cuda 10.x 对应的 pytorch,如果这样的话后面可能会出现一些难以预测的 bug。挑选完 cuda 版本后,将生成的命令行粘贴到 Anaconda Powershell Prompt 上运行,发现一直报错,运行截图如下:

assertionerror: torch not compiled with cuda enabled,机器学习,机器学习,人工智能,深度学习

         很纳闷,为何官网给的命令行会运行不起来?后来经过查询资料发现,是因为不能直接下载该版本 cuda 对应的 pytorch,故我在网上找到了手动下载 torch 以及对应的 torchvision 的网址并进行下载。

        对于 torch 的下载网址为: https://download.pytorch.org/whl/torch_stable.html。下载你本机的 python 版本对应的 torch 版本到指定文件夹下,直接在该文件夹下打开 cmd,在命令行中执行如下命令:pip install ***.whl。python 版本与 torch 、 torchvision 版本的对应关系如下图所示:

assertionerror: torch not compiled with cuda enabled,机器学习,机器学习,人工智能,深度学习

        分别对 torch 与 torchvision 都执行如上所述的操作后,打开 anaconda powershell prompt,输入如下命令:

>python

>>>import torch

>>>a = torch.ones((3,1))   //创建一个长度为 3 值为 1 的矩阵

>>>a = a.cuda(0)              //将该矩阵挪到 cuda 0 也即时本机的 GPU 上

         若如上命令行执行过程中均无报错则表明本机上成功安装了 torch 与对应的 torchvision。

解决方法二:

        若解决方法一无法解决报错问题,则尝试第二种解决方法。

        有可能在执行解决方法一最后的命令行时,发生如下报错:

assertionerror: torch not compiled with cuda enabled,机器学习,机器学习,人工智能,深度学习

         这种情况很大可能是因为 torch 与 CUDA 的版本不兼容导致的,为了验证这一假设,可以在终端输入如下命令:

assertionerror: torch not compiled with cuda enabled,机器学习,机器学习,人工智能,深度学习

         若和我一样,输出的结果是 False 的话,就表示引起报错的原因是 torch 与 CUDA 的版本不兼容导致的。此时首先查看 CUDA 版本,在终端输入如下命令:

nvcc -V

        输出结果如下图所示

assertionerror: torch not compiled with cuda enabled,机器学习,机器学习,人工智能,深度学习

         可以看到我本机的 CUDA 版本是 11.7。很多网友喜欢去英伟达控制面板上找 CUDA 的版本信息,但是有些情况下在英伟达控制面板上看到的 CUDA 版本信息可能与此处看到的不一,以此为准!

        接着访问 Pytorch 的官网,找到与你本机 CUDA 对应版本的 Pytorch,并进行安装,具体操作如下:

assertionerror: torch not compiled with cuda enabled,机器学习,机器学习,人工智能,深度学习

        若你的 CUDA 版本没有出现在官网给出可选的选项范围内,则进入下载其他版本的入口进行历史版本的下载:

assertionerror: torch not compiled with cuda enabled,机器学习,机器学习,人工智能,深度学习

        下载完后,解决了 CUDA 与 torch 版本不兼容问题,重复执行前面报错的那条命令,发现执行成功,错误解决。文章来源地址https://www.toymoban.com/news/detail-788558.html

到了这里,关于AssertionError:Torch not compiled with CUDA enabled的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • Conda、Git、pip设置代理教程 解决Torch not compiled with CUDA enabled问题 pip缓存坑 No module named “Crypto“

    总结 在使用Conda时,如果您需要通过代理访问网络资源,可以按照以下步骤配置代理: 打开终端并运行以下命令以设置HTTP代理: 请将“代理服务器”和“端口号”替换为您的代理服务器和端口号。例如,如果您使用的代理服务器是“proxy.example.com”,端口号是“8080”,则命

    2024年02月09日
    浏览(50)
  • ValueError: The device should not be ‘gpu‘, since PaddlePaddle is not compiled with CUDA问题解决(Paddle)

    两个问题 一并解决: 1 Traceback (most recent call last):   File \\\"run_trainer_ernie_gen.py\\\", line 120, in module     paddle.set_device(trainer_params.get(\\\"PADDLE_PLACE_TYPE\\\", \\\"cpu\\\"))   File \\\"/opt/conda/envs/ERNIE-GEN/lib/python3.7/site-packages/paddle/device/__init__.py\\\", line 204, in set_device     place = _convert_to_place(device)   File \\\"/o

    2023年04月08日
    浏览(94)
  • ERROR Failed to compile with 2 errors These relative modules were not found:

     提示在./node_modules/flatgeobuf/lib/mjs/packedrtree.js中找不到./config.js ./node_modules/flatgeobuf/lib/mjs/generic/featurecollection.js 中找不到../logger.js 如果是用vscode编写,按住ctrl+报错文件名 进入到该报错文件 根据引入  import Config from \\\'./config.js\\\' 去寻找路径\\\'./\\\'下有没有config.js文件 发现只有\\\"Conf

    2024年02月02日
    浏览(61)
  • Stable diffusion报Torch is not able to use GPU; add --skip-torch-cuda-test to COMMANDLINE_ARGS variab

    Stable diffusion 报 Torch is not able to use GPU; add --skip-torch-cuda-test to COMMANDLINE_ARGS variable to disable this check 错误 及 排查解决 先说一下我的显卡配置 3060Ti ,当刚开始报这个错误的时候,发现基本上很多博主说的都是在 launch.py 或者 webui-user.bat 加一个参数 --precision full --no-half --skip-torc

    2024年02月09日
    浏览(64)
  • NotImplementedError: Could not run ‘torchvision::nms‘ with arguments from the ‘CUDA‘ backend.

    问题描述:在跑YOLOV5S代码时,出现了下面这个错误。 原因分析:网上说的是cuda的版本和torch的版本不对应。但是自己明明是在pytorch的官网上下载的呀,并且自己的电脑上的cuda版本是11.8,但是pytorch官网上的cuda的最高版本是11.7,我复制里面的命令安装的,但是运行还是出现

    2024年02月16日
    浏览(52)
  • NotImplementedError: Could not run ‘torchvision::nms‘ with arguments from the ‘CUDA‘ backend解决办法

    NotImplementedError: Could not run \\\'torchvision::nms\\\' with arguments from the \\\'CUDA\\\' backend. This could be because the operator doesn\\\'t exist for this backend, or was omitted during the selective/custom build process (if using custom build). If you are a Facebook employee using PyTorch on mobile, please visit https://fburl.com/ptmfixes for possible resoluti

    2024年02月17日
    浏览(48)
  • AssertionError: Invalid CUDA ‘--device 0,1,2‘ requested, use ‘--device cpu‘ or pass valid CUDA devic

    错误: AssertionError: Invalid CUDA \\\'--device 0,1,2\\\' requested, use \\\'--device cpu\\\' or pass valid CUDA device(s) 在运行yolov5时,出现这个错误,意思是没有可用的cuda,无法使用GPU训练。 1.首先用nvidia-smi查看是否真的有三张显卡。很有可能是没有这么多的。这里面的cuda–version的版本是最高支持的c

    2024年02月11日
    浏览(39)
  • warning: setUpNet DNN module was not built with CUDA backend; switching to CPU错误解决

    利用opencv-python的dnn模块调用yolo3模型进行目标检测的时候,根据网上的教程,加入GPU加速,也就是加入如下的两行代码: 但是在运行之后,出现了这样的提示: 这说明GPU没被用上,原因是OPENCV在安装的时候,没有安装支持CUDA的版本,所以需要重新编译安装OPENCV。 安装OPENC

    2024年02月17日
    浏览(62)
  • torch.cuda.OutOfMemoryError: CUDA out of memory.

    训练清华ChatGLM-6B时报错, 原因是显存不够 torch.cuda.OutOfMemoryError: CUDA out of memory. Tried to allocate 96.00 MiB (GPU 0; 23.70 GiB total capacity; 4.37 GiB already allocated; 64.81 MiB free; 4.37 GiB reserved in total by PyTorch) If reserved memory is allocated memory try setting max_split_size_mb to avoid fragmentation.  See documentatio

    2024年02月06日
    浏览(48)
  • 关于torch.load()更改了cuda位置还是cuda内存不够的问题

    问题背景:在一次任务中,由于需要使用cuda进行代码运行,但是分明修改了cuda到一个空闲的卡位置,但是依然抱错cuda out of memory的问题 在任务中,最开始原始代码是采用以下方式尽心模型load的(指定了cuda to device的位置是空闲的卡2): 但是依然抱错cuda out of memory,分析如

    2024年02月15日
    浏览(47)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包