Windows 下 AMD显卡训练模型有救了:pytorch_directml 下运行Transformers

这篇具有很好参考价值的文章主要介绍了Windows 下 AMD显卡训练模型有救了:pytorch_directml 下运行Transformers。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

Windows 下amd显卡训练transformer 模型。安装方法参见 : Windows下用amd显卡训练 : Pytorch-directml 重大升级,改为pytorch插件形式,兼容更好_amd显卡 pytorch_znsoft的博客-CSDN博客 

import os
import imp
try:
    imp.find_module('torch_directml')
    found_directml = True
    import torch_directml
except ImportError:
    found_directml = False

import torch
from transformers import RobertaTokenizer, RobertaConfig, RobertaModel, RobertaForMaskedLM,pipeline

DIR="E:/transformers"
MODEL_NAME="microsoft/codebert-base"
from transformers import AutoTokenizer, AutoModel

if found_directml:
    device=torch_directml.device()
else:
    device=torch.device("cpu")

# tokenizer = AutoTokenizer.from_pretrained(DIR+os.sep+MODEL_NAME)
# model = AutoModel.from_pretrained(DIR+os.sep+MODEL_NAME).to(device)
# nl_tokens=tokenizer.tokenize("return maximum value")

# code_tokens=tokenizer.tokenize("def max(a,b): if a>b: return a else return b")

# tokens=[tokenizer.cls_token]+nl_tokens+[tokenizer.sep_token]+code_tokens+[tokenizer.eos_token]

# tokens_ids=tokenizer.convert_tokens_to_ids(tokens)
# tokens_ids=torch.tensor(tokens_ids)[None,:]
# tokens_ids.to(device)
# context_embeddings=model()[0]

# print(context_embeddings)



MODEL_NAME="microsoft/codebert-base-mlm"
model = RobertaForMaskedLM.from_pretrained(DIR+os.sep+MODEL_NAME)
tokenizer = RobertaTokenizer.from_pretrained(DIR+os.sep+MODEL_NAME)
model.to(device)
CODE = "if (x is not None) <mask> (x>1)"
code=tokenizer(CODE)
#.to(device)
input_ids=torch.tensor([code["input_ids"]]).to(device)
attention_mask=torch.tensor([code["attention_mask"]]).to(device)
for i in range(1000):
    out=model(input_ids=input_ids,attention_mask=attention_mask)
print(out)

注意,如果直接使用pipeline可能会有问题,应该是pipeline不兼容导致的。只需要自己编写具体代码,避开pipeline即可。  amd GPU占用率能上去。文章来源地址https://www.toymoban.com/news/detail-524704.html

到了这里,关于Windows 下 AMD显卡训练模型有救了:pytorch_directml 下运行Transformers的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • LLM-分布式训练工具(一):DeepSpeed【微软】【大模型分布式训练工具,实现ZeRO并行训练算法】【zero3配置将模型参数切分后分配到不同的显卡中,突破单张显卡容量不足以加载模型参数的限制】

    DeepSpeed是微软推出的大规模模型分布式训练的工具,主要实现了ZeRO并行训练算法。 原始文档链接: DeepSpeed Optimizer state partitioning (ZeRO stage 1) Gradient partitioning (ZeRO stage 2) Parameter partitioning (ZeRO stage 3) Custom mixed precision training handling A range of fast CUDA-extension-based optimizers ZeRO-Offlo

    2024年02月16日
    浏览(35)
  • 大模型落地实战指南:从选择到训练,深度解析显卡选型、模型训练技、模型选择巧及AI未来展望---打造AI应用新篇章

    早期阶段(1950s~1980s) 在1950年代初期,人们开始尝试使用计算机处理自然语言文本。然而,由于当时的计算机处理能力非常有限,很难处理自然语言中的复杂语法和语义。随着技术的发展,自然语言处理领域在20世纪60年代和70年代取得了一些重要的进展。例如,1970年,美国

    2024年04月09日
    浏览(37)
  • 【AMD显卡电脑鼠标卡顿问题】

    今天弄来一张5600xt玩耍,装好驱动22.11.2后,发现鼠标时不时会卡一下。 上网查资料,试了许多方法问题依旧。包括单不限于: 电源选项USB设置 2.禁用HDCP 尝试无果后,突然想起USB2和3插孔可能有影响,看一下果然是插在2.0上了,换插3.0后测试许久再也没出现卡顿。 问题解决

    2024年02月11日
    浏览(86)
  • ubuntu环境配置AMD显卡驱动

    本人买的AMD显卡,最近要在ubuntu环境做python深度学习,所以必须折腾一番,结果发现还不复杂。本人的系统是Ubuntu 20.04.6,显卡是RX6600,亲测有效。 (0) 如果已经配置了显卡驱动但是没有成功,或配置成功想更换版本,则先卸载原有的驱动,重新开始: (1) 在AMD官网下载需要的

    2024年02月05日
    浏览(46)
  • 【持续更新】1996-2023历代AMD Radeon桌面显卡列表,Radeon显卡发布日期

    显卡名称 发行日期 工艺(nm) 核心频率(Mhz) 显存频率 Rage 系列 3D Rage,1996/4/1,500,40,40 3D Rage II,1996/9/1,500,60,83 Rage Pro,1997/3/1,350,75,75 Rage XL,1998/8/1,250,83,125 Rage 128 VR,1998/8/1,250,80,120 Rage 128 GL,1998/8/1,250,103,103 Rage 128 Pro,1999/8/1,250,125,143 Rage 128 Ult

    2024年02月06日
    浏览(158)
  • Win11怎么打开AMD显卡控制面板

    Win11怎么打开AMD显卡控制面板?很多朋友使用的是AMD显卡,大家想要进入AMD显卡设置界面,通过某些设置让游戏运行更加流畅,但是始终找不到AMD显卡设置选项在哪里,今天就来详细讲讲重装系统的方法吧。 一般来说用户可以在桌面点击鼠标右键,然后点击【显示更多选项】

    2024年02月05日
    浏览(43)
  • 【深入了解pytorch】PyTorch训练和评估模型

    在机器学习和深度学习领域,PyTorch是一个非常受欢迎的深度学习框架。它提供了灵活且强大的工具,使得训练和评估模型变得更加容易。本文将介绍如何使用PyTorch来准备数据集、定义训练循环、选择优化算法,并展示如何评估模型性能。 在开始训练模型之前,我们首先需要

    2024年02月16日
    浏览(28)
  • pytorch完整模型训练套路

    本文以 CIFAR10数据集为例,介绍一个完整的模型训练套路。 CIFAR-10数据集包含60000张32x32彩色图像,分为10个类,每类6000张。有50000张训练图片和10000张测试图片。 数据集分为五个训练batches和一个测试batch,每个batch有10000张图像。测试batch包含从每个类中随机选择的1000个图像。

    2024年02月07日
    浏览(28)
  • Pytorch学习笔记(模型训练)

    在同一个包下创建 train.py 和 model.py ,按照步骤先从数据处理,模型架构搭建,训练测试,统计损失,如下面代码所示 train.py model.py 运行 train.py 后可以通过启动tensorboard进行查看我们的loss情况,损失是不断下降的。 补充 argmax 函数的使用 我们模型预测处理的是概率,我们需

    2024年02月07日
    浏览(33)
  • AMD显卡Ubuntu20.4系统下部署stable diffusion

    今天来给大家做一个AMD显卡使用stable diffusion的小白(硬核)教程。最近这段时间AI特别火,很多小伙伴看到各种大佬用AI画的老婆非常精美(色情),弄的人心痒痒,自己也想画一个心仪的老婆(画作)。 太露骨的图片不能放,你们懂得!! 但是很多小伙伴用的是AMD的独立显

    2024年02月03日
    浏览(38)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包