transformers库中的.from_pretrained()

这篇具有很好参考价值的文章主要介绍了transformers库中的.from_pretrained()。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

前言

  • 在跑Faspect代码时,对transformer系列的预训练模型加载方式比较好奇,因此记录
from transformers import AutoConfig, FlaxAutoModelForVision2Seq

# Download configuration from huggingface.co and cache.
config = AutoConfig.from_pretrained("bert-base-cased")
model = FlaxAutoModelForVision2Seq.from_config(config)

在使用Huggingface提供的transformer系列模型时,会通过model.from_pretrained函数来加载预训练模型。

from_pretrainde函数原型为

def from_pretrained(cls, pretrained_model_name_or_path: Optional[Union[str, os.PathLike]], *model_args, **kwargs):
# 从预训练的模型配置实例化预训练的 Pytorch 模型

对加载预训练模型地址的介绍

  • pretrained_model_name_or_path:
    • 一个字符串,模型id,该模型在 huggingface.co的模型仓库中存在。有效的模型id可以是在 root-level 的,比如 bert-base-uncased,或者是在一个用户或者组织名的命名空间下的,比如 dbmdz/bert-base-german-cased
    • 一个文件夹路径,该文件夹包含使用 save_pretrained() 保存的模型权重,比如 ./my_model_dir
    • 指向 tensorflow index checkpoint file 的路径,eg../tf_model/model.ckpt.index
    • 包含.msgpack格式的flax checkpoint file的模型文件夹的路径

提示:如果服务器上无法通过第一种形式访问 huggingface,可以先将在 huggingface 上找到对应的repo,下载下来之后,使用第二种方式加载模型。文章来源地址https://www.toymoban.com/news/detail-574882.html

到了这里,关于transformers库中的.from_pretrained()的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • Transformer and Pretrain Language Models3-2

    第二种变体: 如果两个向量的维度不一样,我们就需要在中间加上一个权重矩阵,来实现他们之间的相乘,然后最后得到一个标量 第三种变体: additive attention 它和前面的有一个比较大的不同,它使用了一层的前馈神经网络,来将两个向量变成一个标量,来得到注意力分数

    2024年01月22日
    浏览(34)
  • Huggingface的from pretrained的下载代理服务器方法设置

    笔者需要用到下载预训练模型,但是此时TUNA和BSFU的镜像已经停止了,希望有可用的途径下载到位于网上的预训练模型。 此时查找了huggingface的文档Configuration 根据文档,该参数proxies (Dict, optional) A dictionary of proxy servers to use by protocol or endpoint,e.g.: {\\\'http\\\': \\\'foo.bar:3128\\\', \\\'http://hos

    2024年02月11日
    浏览(43)
  • huggingface transformers库中LlamaForCausalLM

    新手入门笔记。 LlamaForCausalLM 的使用示例,这应该是一段推理代码。 参考: Llama2 https://huggingface.co/docs/transformers/v4.32.1/en/model_doc/llama2#transformers.LlamaForCausalLM

    2024年02月09日
    浏览(88)
  • 目标检测:Proposal-Contrastive Pretraining for Object Detection from Fewer Data

    论文作者:Quentin Bouniot,Romaric Audigier,Angélique Loesch,Amaury Habrard 作者单位:Université Paris-Saclay; Université Jean Monnet Saint-Etienne; Universitaire de France (IUF) 论文链接:http://arxiv.org/abs/2310.16835v1        目标检测是计算机视觉和图像处理领域的一个重要任务,其目标是在数字图像或视频

    2024年02月06日
    浏览(37)
  • 【综述阅读】A Comprehensive Survey on Pretrained Foundation Models: A History from BERT to ChatGPT

    论文链接:https://arxiv.org/abs/2302.09419 该综述系统性的回顾了预训练基础模型(PFMs)在文本、图像、图和其他数据模态领域的近期前沿研究,以及当前、未来所面临的挑战与机遇。具体来说,作者首先回顾了自然语言处理、计算机视觉和图学习的基本组成部分和现有的预训练方

    2024年02月16日
    浏览(89)
  • 36k字从Attention解读Transformer及其在Vision中的应用(pytorch版)

    深度学习中的卷积操作:https://blog.csdn.net/zyw2002/article/details/128306697 1.1.1 Encoder-Decoder Encoder-Decoder框架顾名思义也就是 编码-解码框架 ,在NLP中Encoder-Decoder框架主要被用来处理 序列-序列问题 。也就是输入一个序列,生成一个序列的问题。这两个序列可以分别是任意长度。 具体

    2024年02月11日
    浏览(29)
  • HF宣布在transformers库中引入首个RNN模型:RWKV,一个结合了RNN与Transformer双重优点的模型

    RWKV是一个结合了RNN与Transformer双重优点的模型架构。由香港大学物理系毕业的彭博首次提出。简单来说,RWKV是一个RNN架构的模型,但是可以像transformer一样高效训练。今天,HuggingFace官方宣布在transformers库中首次引入RNN这样的模型,足见RWKV模型的价值。 同时,在LM-Sys官方的匿

    2024年02月05日
    浏览(36)
  • Eigen库中的Identity()函数作用

    今天学习Eigen库,看到示例代码中有这样一行: Matrix3d: Eigen库中typedef的数据类型,即“3*3矩阵(d表示矩阵内部数据类型为double类型)” rotation_matrix: 该3*3矩阵的变量名 Matrix3d::Identity() :在定义该矩阵变量时,创建一个同尺寸同数据类型的 单位阵 ,对其初始化。

    2024年02月11日
    浏览(27)
  • C++STL库中的list

    文章目录 list的介绍及使用 list的常用接口 list的模拟实现 list与vector的对比 1. list是可以在常数范围内在任意位置进行插入和删除的序列式容器,并且该容器可以前后双向迭代。 2. list的底层是双向带头循环链表结构,双向带头循环链表中每个元素存储在互不相关的独立节点中

    2024年02月15日
    浏览(23)
  • Github库中的Languages显示与修改

    目录 前言 【.gitattributes】文件 修改GitHub语言 上传一个项目到GitHub时,发现显示的语言并非是自己项目所示的语言,这样的情况是经常发生的,为了能到达自己所需快速检索,或者是外部访问者能很好的搜索我们的项目,所以我们有必要修改一下语言,github并不支持项目语言

    2023年04月09日
    浏览(22)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包