深度学习中指定特定的GPU使用

这篇具有很好参考价值的文章主要介绍了深度学习中指定特定的GPU使用。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

前言

老生常谈,同样的问题,主要来源于:RuntimeError: CUDA error: out of memory

当使用完之后,想从其他方式调试,具体可看我这篇文章的:出现 CUDA out of memory 的解决方法

如果还有的空间使用,可看我下面的方式

1. 问题所示

执行代码的时候,出现如下问题:

  File "/home/l228/anaconda3/envs/stegan3.7/lib/python3.7/site-packages/torch/nn/modules/module.py", line 381, in to
    return self._apply(convert)
  File "/home/l228/anaconda3/envs/stegan3.7/lib/python3.7/site-packages/torch/nn/modules/module.py", line 187, in _apply
    module._apply(fn)
  File "/home/l228/anaconda3/envs/stegan3.7/lib/python3.7/site-packages/torch/nn/modules/module.py", line 187, in _apply
    module._apply(fn)
  File "/home/l228/anaconda3/envs/stegan3.7/lib/python3.7/site-packages/torch/nn/modules/module.py", line 193, in _apply
    param.data = fn(param.data)
  File "/home/l228/anaconda3/envs/stegan3.7/lib/python3.7/site-packages/torch/nn/modules/module.py", line 379, in convert
    return t.to(device, dtype if t.is_floating_point() else None, non_blocking)
RuntimeError: CUDA error: out of memory

截图如下所示:

深度学习中指定特定的GPU使用,深度学习,服务器,深度学习,GPU

最终查看是否还有已存的显卡供使用的时候,发现第一个显卡占用满了,但是第二个显卡不会自动使用:nvidia-smi

深度学习中指定特定的GPU使用,深度学习,服务器,深度学习,GPU

2. 解决方法

通过执行torch.cuda.get_device_name(id) 也可看到显卡的各个信息。单机多显卡:

深度学习中指定特定的GPU使用,深度学习,服务器,深度学习,GPU

方案一:通过命令行(最简单的方式)

使用命令如下:

CUDA_VISIBLE_DEVICES=1 python main.py

截图如下所示:

深度学习中指定特定的GPU使用,深度学习,服务器,深度学习,GPU

方案二:通过代码

指定多个空闲的GPU,供选择:

os.environ['CUDA_VISIBLE_DEVICES'] = "0, 1"
model = torch.nn.DataParallel(model, device_ids=[0, 1]) 
device = torch.device("cuda:0" if torch.cuda.is_available() and not args.no_cuda else "cpu")  # cuda 指定使用GPU设备

指定特定空闲的GPU,供选择:

os.environ['CUDA_VISIBLE_DEVICES'] = "1"
model = torch.nn.DataParallel(model, device_ids=[1])  
device = torch.device("cuda:1" if torch.cuda.is_available() and not args.no_cuda else "cpu")  # cuda 指定使用GPU设备

补充:对于序号可不是按照nvidia-smi显示的前后,需要通过输入名字来查找空闲的GPU文章来源地址https://www.toymoban.com/news/detail-799699.html

到了这里,关于深度学习中指定特定的GPU使用的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • [3D数据深度学习] (PC/服务器集群cluster)CPU内存/GPU显存限制及解决办法

    3D数据的深度学习目前研究远不如2D深度学习成熟,其中最大的一个原因之一就是收到硬件条件的限制。3D数据虽说只比2D数据增加了一个维度,但所占据的内存却是成倍的增长。对于3D数据的深度学习,我们会分析其在CPU内存和GPU显存两方面的限制,希望大家能够充分利用自己

    2024年02月10日
    浏览(39)
  • 适用于深度学习的GPU服务器选RTX4090与RTX3090哪个更合适、更划算?

    一、弄清基本参数对比 RTX 4090 具有 760 亿个晶体管、16384 个 CUDA 核心和 24 GB 高速美光 GDDR6X 显存, 4090单精度浮点73TFLOPs RTX 3090 ,搭载了 10496 个流处理器与 24G GDDR6X 显存,带宽为 936GB/S。 3090单精度浮点35.7TFLOPs   二、以同等算力的情况做简单的对比 简单给大家算一下, 从单

    2024年02月17日
    浏览(38)
  • 使用MobaXterm连接服务器并利用Anaconda进行安装pytoch框架跑深度学习模型(使用学校服务器+显卡进行深度学习)

    在开始之前你需要找学校服务器负责人 申请服务器账号和密码 以及 校内外网IP和端口号 ;另外还需要知道学校 服务器显卡cuda版本 ,以及去pytorch官网查看显卡cuda版本对应的 pytorch版本 一、安装MobaXterm 1.下载MobaXterm 软件的下载可以去这里:我都已经给大家准备好了。 在我网

    2024年02月07日
    浏览(45)
  • 集群服务器GPU深度模型训练笔记(PBS作用调度系统)

    用户手册:https://hpc.sustech.edu.cn/ref/cluster_User_Manual.pdf 培训视频:https://hpc.sustech.edu.cn/ref/meeting_20230810.mp4 启明2.0使用手册:https://hpc.sustech.edu.cn/ref/qiming_User_Manual_v3.0.pdf Anaconda官方教程:https://hpc.sustech.edu.cn/ref/anaconda-install-by-user.html FileZilla传输数据 filezilla是一款用于与远程服

    2024年01月16日
    浏览(36)
  • 使用vscode 连接服务器 进行深度学习代码调试

    博主本来在Win上已经配好环境了,但是在跑代码的过程中,因为tensor拼接得太大了,导致笔记本内存不足,因此需要到服务器上跑 为什么选择vscode? 如果直接用xshell连接服务器,在命令行运行py文件,不是很直观,也不能debug,还不能直接输出图片。 pycharm连接服务器好像要

    2024年02月22日
    浏览(29)
  • 【深度学习】手把手教你使用 PyCharm 连接 Auto DL 远程服务器

    文章性质: 实操记录 💻 主要内容: 主要记录了如何租用 Auto DL 服务器,以及如何在 PyCharm 中连接远程服务器。 相关文档: 如何使用 Auto DL 远程服务器连接 PyCharm 运行代码 - 知乎 冷知识+1: 小伙伴们不经意的 点赞 👍🏻 与 收藏 ✨ 可以让作者更有创作动力!  目录 前言

    2024年04月25日
    浏览(66)
  • 本地连接服务器使用GPU训练模型

    直接运行上面的文件,然后输入密码,这密码不是服务器的密码,但是可以直接连接到服务器上面,这个东西是什么?好厉害,居然可以跳过去服务器的账号密码 我本来想忽略一些不需要上传文件,但是无法成功忽略,scp好像不支持 下面这个命令是从服务器上面传输数据到

    2024年02月07日
    浏览(40)
  • 【深度学习】手把手教你使用 PyCharm 在 Auto DL 远程服务器上运行代码

    文章性质: 实操记录 💻 主要内容: 主要记录了如何使用 PyCharm 在 Auto DL 上运行代码。 相关文档: 使用 PyCharm 在 Auto DL 远程服务器上运行代码 - 知乎 相关博客: 使用 PyCharm 连接远程服务器(AutoDL)训练 YOLOv5 - CSDN博客  冷知识+1: 小伙伴们不经意的 点赞 👍🏻 与 收藏 ✨

    2024年03月21日
    浏览(55)
  • 北京超级云计算GPU服务器的使用教程

    北京超级云计算中心(北京超算云)是一个很不错的训练深度学习模型的平台(主要是可以白嫖200元的GPU算力资源),官网连接。申请账号现在应该还送200元(我申请使用的是GPU服务器)。在官网中填写申请信息,然后等着客户经理给你打电话,然后把你的需求说清楚,第二

    2024年02月02日
    浏览(38)
  • 服务器已经存在CUDA但无法使用GPU

    记录一下我使用服务器期间遇到的问题以及解决方法(主要使用tensorflow) 先介绍一下我本次遇到的问题: 我在服务器上拥有一个独立的账号,我发现我的tensorflow无法调用GPU,先排查可能存在的问题 终端输入 nvcc -V 结果如下: 显示已经安装了11.8版本的CUDA  但是在python文件

    2024年02月02日
    浏览(35)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包