深度学习之python使用指定gpu运行代码

这篇具有很好参考价值的文章主要介绍了深度学习之python使用指定gpu运行代码。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

一、前提

1、在命令行使用nvidia-smi查看gpu设备情况,当存在空闲设备时才能用,否则会出现运行内存不够出错的情况(具体参考文章GPU之nvidia-smi命令详解);

2、安装好cuda和cudcnn(具体步骤请参考:①windows:CUDA安装教程(超详细)),②linux:linux安装CUDA+cuDNN)

在命令行输入nvcc -V或者nvcc --version检查是否安装成功:

python调用gpu,linux学习,视频对象分割笔记,python,深度学习,开发语言

二、命令行直接指定

运行python文件时,在前面加上 CUDA_VISIBLE_DEVICES=xxx,xxx是你要指定的gpu序号。如CUDA_VISIBLE_DEVICES=0,2 python extract_masks.py表示指定了0、2号两个gpu。注意,序号是从0开始排的,所以如果你只有一个gpu,那么就是CUDA_VISIBLE_DEVICES=0 python extract_masks.py。

三、在python文件中指定

在需要运行的python文件最开始加上两行如下,等号后面的数字同上所述。

import os
os.environ["CUDA_VISIBLE_DEVICES"] = "0,2,3"
# 注意:这两行代码必须在文件的最开头,在加载各种包之前

四、如何使用

在python文件中,定义需要加速的模型之后,加上:

model = ......
model.train(True) or model.train(False) # 看你是要训练还是测试
model.to('cuda') # 或者model.cuda()
# 后面需要输入model的变量也是需要.to('cuda')或者.cuda()的,不然会报错既用了cpu又用gpu,不兼容

参考自python指定gpu运行文章来源地址https://www.toymoban.com/news/detail-589370.html

到了这里,关于深度学习之python使用指定gpu运行代码的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • paddle指定运行gpu

    在PaddlePaddle中指定使用GPU进行运行非常简单。首先,确保你的机器上已经安装了CUDA和cuDNN,并且正确配置了GPU环境。然后,按照以下步骤进行操作: 导入PaddlePaddle库: 设置使用的设备为GPU: 如果你有多块GPU,你可以选择指定使用的GPU编号: 在你的代码中,使用PaddlePaddle提供

    2024年01月25日
    浏览(33)
  • 如何在服务器使用GPU跑深度学习代码

    每个人都有他们偏好的工具和工作流程。就我个人而言,我喜欢使用 PyCharm Professional Edition 作为我的集成开发环境,选择使用 HengYuan Cloud\\\'s OSS.exe 和 FileZilla 进行文件传输,并且我倾向于使用 Xshell 来处理命令行操作。这些工具的组合满足了我的所有需求,并使我的工作效率最

    2024年04月12日
    浏览(50)
  • python运行使用gpu运算【python基础】python开启GPU加速

    1.首先需要确认是否成功安装cuda,代码见图一;打印结果如图二所示。  图一   图二  2.如果未安装成功可以自行搜索,不麻烦;安装成功后需要分三步设置使用GPU,以简单的softmax分类器为例: a.导入os模块 b.将模型放进GPU中运算。  c.更改训练、测试两个步骤,使用GPU运算

    2024年02月16日
    浏览(43)
  • 在GPU上运行pytorch程序(指定单/多显卡)

    1. 使用CUDA_VISIBLE_DEVICES 2. 使用cuda()和torch.cuda.set_device() 3. 使用device 4. 使用torch.nn.DataParallel torch.cuda常用指令 https://blog.csdn.net/qq_43307074/article/details/127628498?spm=1001.2014.3001.5501 方法1和方法2可以同时使用,比如在运行代码时使用: 而在代码内部又指定: 那么model会在GPU3上运行。

    2024年01月21日
    浏览(36)
  • 在linux中查看运行指定进程资源占用(cpu+gpu)

    在运行程序时有时候会需要查看资源占用,以方便部署在其他服务器上时进行参考。以下是总结了我在linux上查找程序进程资源的两种方法(cpu和gpu都有)。 如果进程较多,输入 ps -ef | grep + 指令 进行搜索。如果运行的是python程序,可以输入 ps -ef | grep python3 比如我想

    2024年02月04日
    浏览(56)
  • AI绘画stable-diffusion-webui指定GPU运行

    在cmd_args.py文件中,进行运行参数的设定,其中可以指定gpu信息 其中: 命令行运行的时候指定具体gpu的id,例如: 表示使用id为3的gpu卡运行,其中--listen表示允许远程访问。

    2024年02月11日
    浏览(45)
  • 深度学习之卷积神经网络中常用模型评估指标(混淆矩阵,精确率,召回率,特异度计算方法)——python代码

    深度学习之卷积神经网络中常用模型评估指标(混淆矩阵,精确率,召回率,特异度计算方法): 混淆矩阵,精确率,召回率,特异度作为卷积神经网络的模型性能评价指标,它们的计算和绘制具有非常重要的意义,特别是在写论文的时候,我们往往需要这些指标来证明我们模

    2024年02月06日
    浏览(63)
  • 在服务器上指定GPU跑代码

    查看GPU状态和信息,找到空闲的GPU: 从图中 Processes 表格我们可以发现0、1、2号GPU均是可以利用的。于是我们可以在python文件中加入以下代码,表示使用0号GPU: 或者可以在命令行窗口处输入,表示使用1号GPU运行代码: 再或者使用  torch.cuda.set_device() 函数 指定gpu使用编号:

    2024年02月04日
    浏览(63)
  • win10跑深度学习程序无法调用gpu的问题(已解决)

    win10跑深度学习真的是一言难尽,但是windows系统又使用的比较习惯,过去使用过ubuntu系统,里面写文档什么的确实不习惯,所以自己做的实验项目也主要是以win10为主工具是常见的pycharm+anaconda+win10 采用的是keras2.3.1,更改了程序中一些代码之后,每次跑模型都会中断 记录一下

    2024年01月16日
    浏览(48)
  • Py:代码性能分析之使用python工具—如利用cProfile【输出每个函数的运行时间和调用次数】/line_profiler【输出每行代码的执行时间】)同时对比斐波那契数列问题的递归方法和动态规划

    Py:代码性能分析之使用python工具—如利用cProfile【输出每个函数的运行时间和调用次数】/line_profiler【输出每行代码的执行时间】)同时对比斐波那契数列问题的递归方法和动态规划算法实现 目录

    2024年02月04日
    浏览(81)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包