PyTorch多GPU训练模型——使用单GPU或CPU进行推理的方法

这篇具有很好参考价值的文章主要介绍了PyTorch多GPU训练模型——使用单GPU或CPU进行推理的方法。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

1 问题描述

PyTorch提供了非常便捷的多GPU网络训练方法:DataParallelDistributedDataParallel。在涉及到一些复杂模型时,基本都是采用多个GPU并行训练并保存模型。但在推理阶段往往只采用单个GPU或者CPU运行。这时怎么将多GPU环境下保存的模型权重加载到单GPU/CPU运行环境下的模型上成了一个关键的问题。

如果忽视环境问题直接加载往往会出现两类问题:

1 出现错误:IndexError: list index out of range

PyTorch多GPU训练模型——使用单GPU或CPU进行推理的方法,神经网络,pytorch,深度学习,DataParallel,模型加载

出现这个错误的原因是:现有模型参数是在多GPU上获得并保存的,因此在读入时默认会保存至对应的GPU上,但是目前推理环境中只有一块GPU,所以导致那些本来在其它GPU上的参数找不到自己应该去的GPU编号,出现了一个溢出错误,本质是GPU编号溢出。

2 出现错误:Missing key(s) in state_dict:

PyTorch多GPU训练模型——使用单GPU或CPU进行推理的方法,神经网络,pytorch,深度学习,DataParallel,模型加载

出现这个错误的原因是:由于模型训练和推理的环境不同,导致一些参数丢失,因此报错。目前在网上的一些解决策略是忽视这些丢失的参数,例如使用命令:model.load_state_dict(torch.load('model.pth'), strict=False)
来成功导入模型。这条命令可以让程序不报错并看似成功的导入模型参数。但实际上这条命令的含义是在导入模型参数时通过设置 strict=False 来忽略丢失的参数,也就是说那些丢失参数地方的模型权重初仍为初始化随机状态,等同于没有进行训练和学习,何谈推理与验证!!!

2 模型保存方式

不论是用哪种方式进行推理,在训练的时候要保证程序保存模型的方式是这样的:

torch.save(model.state_dict(), "model.pth")

3 单块GPU上加载模型

将多GPU训练的权重文件加载到单GPU上:

# 1 加载模型
model = Model()
# 2 指定运行设备,这里为单块GPU
device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")
# 3 将模型用DataParallel方法封装一次
model = torch.nn.DataParallel(model)
# 4 将模型读入到GPU设备上
model = model_E2E.to(device)
# 5 加载权重文件
model.load_state_dict(torch.load(weight_path, map_location=device))

通过上面的程序就可以实现将多块GPU上训练得到的权重文件加载到单块GPU环境下的模型中。这里有两点需要注意:

  • 在多GPU训练时,模型使用了 DataParallel
    DistributedDataParallel 方法,这两种并行化工具会修改模型的结构,将模型封装在一个新的模块中,通常名为:module因此在权重文件中保存的模型是经过 DataParallel 封装后的结构。为了能够载入全部参数,需要通过步骤3使推理模型与原始多GPU训练模型在结构上保持一致。

  • 在步骤5加载模型参数时使用了map_location 参数。这个参数会告诉 PyTorch在加载模型时应该将张量放置在哪个设备上。设置map_location=device,那么无论模型原来是在哪个设备上训练的,现在都将放置在指定的设备device='cuda:0'上。

4 CPU上加载模型

在CPU上加载模型:

from collections import OrderedDict

# 1 加载模型
model = Model()
# 2 指定设备CPU
device = "cpu"
# 3 读取权重文件
state_dict = torch.load(weight_path, map_location=device)
# 4 剥除权重文件中的module层
if next(iter(state_dict)).startswith("module."):
    new_state_dict = OrderedDict()
    for k, v in state_dict.items():
        name = k[7:]  # remove `module.`
        new_state_dict[name] = v
    state_dict = new_state_dict
# 5 加载权重文件
model.load_state_dict(state_dict)
# 6 将模型载入到CPU
model = model.to(device)

在CPU上加载模型的逻辑和GPU的差不多,核心都是因为原权重文件中的模型被封装成了module.Model,所以需要将这层外壳去掉,最后再进行读取并将模型加载到CPU上。

5 总结

在深度学习任务中训练与推理环境存在差异的情况十分常见 ,有差异的环境下实现网络权重文件的正确读取十分重要。实际操作中一定要确保正确的权重文件被读入,这是进行推理最基本的前提!最好在推理前做一些对比实验(例如:选取一部分数据,分别套用已有的程序进行训练和推理,对比二者的效果)来确保已经读入到正确的权重。文章来源地址https://www.toymoban.com/news/detail-699399.html

到了这里,关于PyTorch多GPU训练模型——使用单GPU或CPU进行推理的方法的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 训练模型时 遇到速度过慢时的深思 & 速度提升 (From GPU & CPU)

    torch.nn.DataParallel 在使用多GPU的时候, 使用os.environ[‘CUDA_VISIBLE_DEVICES’]来限制使用的GPU个数 例如我要使用第0和第3编号的GPU, 那么只需要在程序中设置: Note: 这个参数的设定要保证在模型加载到gpu上之前, 一般在程序开始的时候就设定好这个参数 之后, 将模型加载到多GPU上面 如

    2024年01月24日
    浏览(38)
  • Pytorch迁移学习使用Resnet50进行模型训练预测猫狗二分类

    目录   1.ResNet残差网络 1.1 ResNet定义  1.2 ResNet 几种网络配置  1.3 ResNet50网络结构 1.3.1 前几层卷积和池化 1.3.2 残差块:构建深度残差网络 1.3.3 ResNet主体:堆叠多个残差块 1.4 迁移学习猫狗二分类实战 1.4.1 迁移学习 1.4.2 模型训练 1.4.3 模型预测   深度学习在图像分类、目标检

    2024年02月16日
    浏览(86)
  • pytorch 测量模型运行时间,GPU时间和CPU时间,model.eval()介绍

    time.time() time.perf_counter() time.process_time() time.time() 和time.perf_counter() 包括sleep()time 可以用作一般的时间测量,time.perf_counter()精度更高一些 time.process_time()当前进程的系统和用户CPU时间总和的值 测试代码: 测试结果: 更详细解释参考 Python3.7中time模块的time()、perf_counter()和proce

    2024年02月06日
    浏览(46)
  • Python从零开始进行AIGC大模型训练与推理

            本专栏将详细介绍从零开始进行AIGC大模型训练与推理(Python),包括文本生成(GPT系列)和图片生成(Stable Diffusion系列)等,初步计划从以下提纲逐步进行博文分享,欢迎关注。 (1)《解密AIGC:人工智能生成内容技术的优势和未来发展趋势》,地址为“解密

    2024年02月09日
    浏览(39)
  • Tensorflow调用训练好的yolov5模型进行推理

    conda search找找当前源下的CUDA与cuDNN有没有我们要的版本: Onnx(Open Neural Network Exchange)是一种开放的深度学习模型交换格式,用于在不同的深度学习框架之间共享模型。它提供了一个中间格式,可以将模型从一个框架转换为另一个框架。 Tensorflow是一个广泛使用的深度学习框

    2024年02月11日
    浏览(43)
  • Pytorch调用GPU训练两种方法

    我们可以通过对网络模型,数据,损失函数这三种变量调用 .cuda() 来在GPU上进行训练。 指定 训练的设备 使用 GPU 训练 查看GPU使用情况    

    2024年02月17日
    浏览(41)
  • 【深入了解PyTorch】PyTorch分布式训练:多GPU、数据并行与模型并行

    在深度学习领域,模型的复杂性和数据集的巨大规模使得训练过程变得极具挑战性。为了加速训练过程,利用多个GPU进行并行计算是一种常见的方法。PyTorch作为一种流行的深度学习框架,提供了强大的分布式训练工具,使得多GPU、数据并行和模型并行等技术变得更加容易实现

    2024年02月12日
    浏览(42)
  • pytorch基于ray和accelerate实现多GPU数据并行的模型加速训练

    在pytorch的DDP原生代码使用的基础上,ray和accelerate两个库对于pytorch并行训练的代码使用做了更加友好的封装。 以下为极简的代码示例。 ray.py acc.py

    2024年02月11日
    浏览(43)
  • 使用onnxruntime-gpu 模型推理

    1.安装onnxruntime-gpu 新版的onnxruntime-gpu 即支持gpu的推理,也支持cpu的推理。 卸载旧的1.7.1 cpu版本,安装新的gpu版本: 检查是否安装成功: 2.修改推理代码 在推理代码上增加 providers参数,选择推理的框架。看自己支持哪个就选择自己支持的就可以了。 如果运行推理代码出现

    2024年02月15日
    浏览(40)
  • 试用阿里云GPU服务器进行深度学习模型训练

    最近在用PyTorch时发现在本地训练模型速度一言难尽,然后发现阿里云可以白嫖gpu服务器,只要没有申请过PAI-DSW资源的新老用户都可以申请5000CU*H的免费额度,三个月内有效。 阿里云免费试用活动页面 一、申请试用并创建实例 点击试用,完成注册、实名、领取产品,然后前往

    2024年04月17日
    浏览(60)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包