模型加载至 cpu 和 gpu 的方式

这篇具有很好参考价值的文章主要介绍了模型加载至 cpu 和 gpu 的方式。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

  1. 采用 from_pretrained 的方式,模型正常情况下,BertMoldel.from_pretrained() 是会 load 在 cpu 上的,内部 map_location 默认设置成 cpu,如果想要部署在gpu,执行下面三句话。

BertMoldel.from_pretrained()
device=torch.device(’cuda’)
model.to(device) 
  1. 采用 load_state_dict 的方式加载模型,模型是部署在 哪里可以指定,如果想部署到 gpu,无需修改第一行,直接再加入4.5行。文章来源地址https://www.toymoban.com/news/detail-611634.html

state_dict=torch.load(model_path, map_location=’cpu’)
#部署到 gpu,把上面改为map_location=’gpu’
model.load_state_dict(state_dict)
#已在CPU上加载,下面两句也可加入GPU
device=torch.device(’cuda’)
model.to(device) 

到了这里,关于模型加载至 cpu 和 gpu 的方式的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包