PyTorch——device与cuda.device用法

这篇具有很好参考价值的文章主要介绍了PyTorch——device与cuda.device用法。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

1 查看当前的device

  • 输入情况:
import torch
print("Default Device : {}".format(torch.Tensor([4, 5, 6]).device))
  • 输出情况:
Default Device : cpu

2 cpu设备可以使用“cpu:0”来指定

  • 输入情况
device = torch.Tensor([1, 2, 3], device="cpu:0").device
print("Device Type: {}".format(device))
  • 输出情况
Device Type: cpu

3 gpu设备可以使用“cuda:0”来指定

  • 输入情况
gpu = torch.device("cuda:0")
print("GPU Device:【{}:{}】".format(gpu.type, gpu.index))
  • 输出情况
GPU Device:【cuda:0

4 查询CPU和GPU设备数量

  • 输入情况
print("Total GPU Count :{}".format(torch.cuda.device_count()))
print("Total CPU Count :{}".format(torch.cuda.os.cpu_count()))
  • 输出情况
Total GPU Count :1
Total CPU Count :8

5 从CPU设备上转换到GPU设备

5.1 torch.Tensor方法默认使用CPU设备

  • 输入情况
data = torch.Tensor([[1, 4, 7], [3, 6, 9], [2, 5, 8]])
print(data.shape)
  • 输出情况
torch.Size([3, 3])

5.2 使用to方法将cpu的Tensor转换到GPU设备上

  • 输入情况:
data_gpu = data.to(torch.device("cuda:0"))
print(data_gpu.device)
  • 输出情况:
cuda:0

5.3 使用.cuda方法将cpu的Tensor转换到GPU设备上

  • 输入情况:
data_gpu2 = data.cuda(torch.device("cuda:0"))
# 如果只有一块gpu的话  直接写成这样:data_gpu2 = data.cuda()
print(data_gpu2.device)
  • 输出情况:
cuda:0

文章来源地址https://www.toymoban.com/news/detail-404890.html

到了这里,关于PyTorch——device与cuda.device用法的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 当出现RuntimeError:CUDA error:no kernel image is available for execution on the device 问题时候的pytorch安装方法

    当出现一个明显的特征就是出现: RuntimeError:CUDA error:no kernel image is av ailable for execution on the device 这就说明你的显卡太低了 可以到这个路径下C:Program FilesNVIDIA GPU Computing ToolkitCUDAv11.1extrasdemo_suite, 找到deviceQuenry.exe这个文件拖到cmd命令窗口运行可以看到自身电脑的算力  从

    2024年02月01日
    浏览(63)
  • 如何查看自己使用的Python、CUDA、Pytorch、TensorFlow的版本(Windows)

    1、查看python版本 1)键盘 windows+R键,弹出如下:2、  2)点击确定,弹出如下:  3)输入python,便可输出python版本 2、查看cuda版本 1)打开pycharm编辑器 2)输入: 3)运行后输出:   3、查看pytorch版本 1)打开pycharm编辑器 2)输入: 3)运行后输出:     4、查看tensorflow版本

    2024年02月08日
    浏览(51)
  • Linux和Windows系统下:安装Anaconda、Paddle、tensorflow、pytorch,GPU[cuda、cudnn]、CPU安装教学,以及查看CPU、GPU内存使用情况

    Anaconda安装:Anaconda是一个开源的Python发行版本,其包含了conda、Python等180多个科学包及其依赖项。使用Anaconda可以通过创建多个独立的Python环境,避免用户的Python环境安装太多不同版本依赖导致冲突。 Anaconda 是一个免费开源的 Python 和 R 语言的发行版本,用于计算科学,Anac

    2024年02月04日
    浏览(61)
  • AssertionError: Invalid CUDA ‘--device 0,1,2‘ requested, use ‘--device cpu‘ or pass valid CUDA devic

    错误: AssertionError: Invalid CUDA \\\'--device 0,1,2\\\' requested, use \\\'--device cpu\\\' or pass valid CUDA device(s) 在运行yolov5时,出现这个错误,意思是没有可用的cuda,无法使用GPU训练。 1.首先用nvidia-smi查看是否真的有三张显卡。很有可能是没有这么多的。这里面的cuda–version的版本是最高支持的c

    2024年02月11日
    浏览(38)
  • os.environ[‘CUDA_VISIBLE_DEVICES‘] 和torch.cuda.set_device()

    官方文档:当使用 PyTorch 进行深度学习训练时,通常需要使用 CUDA 加速计算。在使用 PyTorch 进行训练之前,需要确保已经正确设置了可见的 GPU 设备,并且已经初始化了 CUDA 环境。 os.environ[\\\'CUDA_VISIBLE_DEVICES\\\'] 是一个环境变量,可以通过设置它来限制程序所能看到的可用 GPU 设备

    2023年04月08日
    浏览(46)
  • 【设置gpu设备】os.environ[‘CUDA_VISIBLE_DEVICES‘] 和 torch.cuda.set_device()

    官方文档:当使用 PyTorch 进行深度学习训练时,通常需要使用 CUDA 加速计算。在使用 PyTorch 进行训练之前,需要确保已经正确设置了可见的 GPU 设备,并且已经初始化了 CUDA 环境。 2.1 方法1:os.environ[‘CUDA_VISIBLE_DEVICES‘] (推荐) os.environ[‘CUDA_VISIBLE_DEVICES’] 是一个环境变量

    2024年02月15日
    浏览(33)
  • 使用CUDA_VISIBLE_DEVICES设置显卡

    当服务器有多个GPU时,设置CUDA_VISIBLE_DEVICES 环境变量可以改变CUDA程序所能使用的GPU设备。在默认情况下,标号为0的显卡为主卡,如主机中有4块显卡,那么每张显卡的默认标号为[0,1,2,3]。多卡设置规则如下: Environment Variable Syntax Results CUDA_VISIBLE_DEVICES=1 Only device 1 will be seen

    2024年01月20日
    浏览(51)
  • 解决:RuntimeError: CUDA error: device-side assert triggered

    @[TOC]解决办法:RuntimeError: CUDA error: device-side assert triggered CUDA kernel errors might be asynchronously reported at some other API call,so the stacktrace below might be incorrect. For debugging consider passing CUDA_LAUNCH_BLOCKING=1. RuntimeError: CUDA error: device-side assert triggered CUDA kernel errors might be asynchronously reported at

    2024年02月12日
    浏览(36)
  • BUG:RuntimeError: CUDA error: invalid device ordinal CUDA kernel errors might be asynchronously repo

    参考链接 当运行以下代码出现报错: 报错信息如下 RuntimeError: CUDA error: invalid device ordinal CUDA kernel errors might be asynchronously reported at some other API call,so the stacktrace below might be incorrect. For debugging consider passing CUDA_LAUNCH_BLOCKING=1. 报错完整截图 报错的信息告诉我们,编号\\\"1\\\"是无效的设

    2024年02月12日
    浏览(53)
  • 已解决RuntimeError: CUDA error: invalid device ordinal CUDA kernel errors might be asynchronously repo

    参考链接 当运行以下代码出现报错: 报错信息如下 RuntimeError: CUDA error: invalid device ordinal CUDA kernel errors might be asynchronously reported at some other API call,so the stacktrace below might be incorrect. For debugging consider passing CUDA_LAUNCH_BLOCKING=1. 报错完整截图 报错的信息告诉我们,编号\\\"1\\\"是无效的设

    2024年02月04日
    浏览(50)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包