tensorflow如何使用gpu

这篇具有很好参考价值的文章主要介绍了tensorflow如何使用gpu。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

1、查看GPU的数量

import tensorflow as tf
# 查看gpu和cpu的数量
gpus = tf.config.experimental.list_physical_devices(device_type='GPU')
cpus = tf.config.experimental.list_physical_devices(device_type='CPU')
print(gpus, cpus)

2、设置GPU加速

第一种:限制使用的gpu,没有限制消耗内存的大小:

  通过 tf.config.experimental.set_visible_devices 。可以设置当前程序可见的设备范围(当前程序只会使用自己可见的设备,不可见的设备不会被当前程序使用。使用部分gpu加速。如下面使用gpu设备0,1

gpus = tf.config.experimental.list_physical_devices(device_type='GPU')
tf.config.experimental.set_visible_devices(devices=gpus[0:2], device_type='GPU')

或者使用os来进行控制:使用环境变量 CUDA_VISIBLE_DEVICES 也可以控制程序所使用的GPU。

import os
os.environ['CUDA_VISIBLE_DEVICES'] = "2,3"

第二种:动态申请显存,仅在需要时申请显存空间。

  通过 tf.config.experimental.set_memory_growth 将GPU的显存使用策略设置为“仅在需要时申请显存空间”。以下代码将所有GPU设置为仅在需要时申请显存空间:

gpus = tf.config.experimental.list_physical_devices(device_type='GPU')
for gpu in gpus:
    tf.config.experimental.set_memory_growth(gpu, True)

第三种:限制使用的gpu,并且限制使用的内存大小。
  通过 tf.config.experimental.set_virtual_device_configuration 选项并传入 tf.config.experimental.VirtualDeviceConfiguration 实例,设置TensorFlow固定消耗 GPU:0 的1GB显存

gpus = tf.config.experimental.list_physical_devices(device_type='GPU')
tf.config.experimental.set_virtual_device_configuration(
    gpus[0],
    [tf.config.experimental.VirtualDeviceConfiguration(memory_limit=1024)])

3、单GPU模拟多GPU环境

  当我们的本地开发环境只有一个GPU,但却需要编写多GPU的程序在工作站上进行训练任务时,TensorFlow为我们提供了一个方便的功能,可以让我们在本地开发环境中建立多个模拟GPU,从而让多GPU的程序调试变得更加方便。以下代码在实体GPU GPU:0 的基础上建立了两个显存均为2GB的虚拟GPU。文章来源地址https://www.toymoban.com/news/detail-537593.html

gpus = tf.config.experimental.list_physical_devices('GPU')
tf.config.experimental.set_virtual_device_configuration(
     gpus[0],
     [tf.config.experimental.VirtualDeviceConfiguration(memory_limit=2048),
      tf.config.experimental.VirtualDeviceConfiguration(memory_limit=2048)])

到了这里,关于tensorflow如何使用gpu的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • tensorflow-GPU环境搭建

    最近在学习AI相关知识,需要使用 gpu 运行 tensorflow 代码,选择在腾讯云上搭建环境 安装 tensorflow 与 GPU 支持需要对齐以下软件的版本号(按依赖顺序排列): GPU 驱动版本号 CUDA 版本号 cudnn 版本号 tensorflow 版本号 由于 tensorflow 位于最下游,因此更新时机最晚,因此实际安装

    2024年01月17日
    浏览(35)
  • tensorflow 1.15 gpu docker环境搭建;Nvidia Docker容器基于TensorFlow1.15测试GPU;——全流程应用指南

    TensorFlow 在新款 NVIDIA Pascal GPU 上的运行速度可提升高达 50%,并且能够顺利跨 GPU 进行扩展。 如今,训练模型的时间可以从几天缩短到几小时 TensorFlow 使用优化的 C++ 和 NVIDIA® CUDA® 工具包编写,使模型能够在训练和推理时在 GPU 上运行,从而大幅提速 TensorFlow GPU 支持需要多个

    2024年02月03日
    浏览(55)
  • 如何在Windows上配置PyTorch GPU环境 - 详细步骤指南

    本文提供了一份完整的PyTorch GPU环境配置指南,包括从NVIDIA驱动检查、CUDA与cuDNN的下载与安装,到Anaconda环境设置和PyTorch的安装验证。适用于希望在Windows系统上利用GPU加速深度学习项目的开发者。

    2024年02月16日
    浏览(29)
  • Windows安装GPU环境CUDA、深度学习框架Tensorflow和Pytorch

    Windows安装GPU环境CUDA、深度学习框架Tensorflow和Pytorch 首先需要安装GPU环境,包括cuda和cudnn。 深度学习本质上就是训练深度卷积神经网络。 cuda:显卡能够完成并行计算任务,所有的操作是比较底层的、复杂的。 cudnn:在cuda之上有一个专门用于深度神经网络的SDK库来加速完成相

    2023年04月26日
    浏览(45)
  • 环境搭建-Ubuntu20.04.6系统TensorFlow BenchMark的GPU测试

    登录阿里云官方镜像站:阿里巴巴开源镜像站-OPSX镜像站-阿里云开发者社区 Server OS:Ubuntu 20.04.6 LTS Kernel: Linux 5.4.0-155-generic x86-64 Docker Version:24.0.5, build ced0996 docker-compose version:1.25.0 Docker OS:Ubuntu 20.04.5 LTS Nvidia GPU Version:NVIDIA-SMI 470.161.03 CUDA Version: 12.1 TensorFlow Version:1.15.

    2024年02月15日
    浏览(33)
  • tensorflow1 tensorflow 2 安装配置(cpu+gpu)windows+linux

    tensorflow1和2的安装部署,演示2.14版本(最新是2.15版本) windows和linux用法一致,我是在win10和ubuntu2204下都手动测试过的 本文使用的conda的方式,2023年12月10日更新 如果中间有任何报错,参考最后一节的处理 链接:tensorflow官网 注意:如果因为网络问题出现错误或卡住,多次尝

    2024年02月04日
    浏览(30)
  • MacOS M2:配置Tensorflow-GPU版

    本文主要介绍MacOS 12.x系统下的Tensorflow配置。总的来说,配置Mac版本的Tensorflow只需要三步:第一步配置一个虚拟环境,建议选择miniconda;第二步创建conda环境;第三步安装Tensorflow。 1、安装 Miniconda 1.1 彻底删除anaconda (1)下载  anaconda-clean   用于删除相关配置文件 2)删除

    2024年04月13日
    浏览(69)
  • tensorflow1 tensorflow 2 安装配置(cpu+gpu)windows+linux 新版2.12+

    tensorflow1和2的安装部署,演示2.14版本(最新是2.15版本) windows和linux用法一致,我是在win10和ubuntu2204下都手动测试过的 本文使用的conda的方式,2023年12月10日更新 如果中间有任何报错,参考最后一节的处理 链接:tensorflow官网 注意:如果因为网络问题出现错误或卡住,多次尝

    2024年02月12日
    浏览(33)
  • 基于Miniconda3安装jupyter notebook+虚拟环境安装tensorflow(cpu&gpu版本)

    本文在安装过程中参考了很多c站的其他教程,本文把安装过程中遇到的问题和安装过程一一记录,希望能有所贡献。 本文是基于miniconda已经安装完成且环境变量也设置好的前提。 目录 一、Miniconda创建虚拟环境 (以下的二和三部分任选其一安装即可) 二、安装tensorflow cpu版

    2024年02月07日
    浏览(45)
  • win10下wsl2使用记录(系统迁移到D盘、配置国内源、安装conda环境、配置pip源、安装pytorch-gpu环境、安装paddle-gpu环境)

    安装好后环境测试效果如下,支持命令nvidia-smi,不支持命令nvcc,usr/local目录下没有cuda文件夹。 系统迁移到非C盘 wsl安装的系统默认在c盘,为节省c盘空间进行迁移。 1、输出 wsl -l 查看要迁移的系统名称 2、执行导出命令: wsl --export Ubuntu-20.04 ./Ubuntu-20.04.tar ,以下命令将系统

    2024年02月20日
    浏览(45)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包