如何批量下载hugging face模型和数据集文件

这篇具有很好参考价值的文章主要介绍了如何批量下载hugging face模型和数据集文件。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

本文内容

目前网上关于下载hugging face模型文件大多都是一个一个下载,无法做到批量下载,但有些模型或数据集包含文件太多,不适用一个一个下载。本文将会介绍如何使用git进行批量下载。

Git代理配置

由于Hugging Face的部分模型和数据集在国外服务器,不使用代理比较慢,所以要先配置git代理。全局代理配置方式:

git config --global https.proxy http://127.0.0.1:1080

只对clone使用代理的配置方式:

git clone XXX.git -c http.proxy="http://127.0.0.1:1080"

如果文件太大,可以使用git lfs命令

下载模型或数据集

  1. 首先到你需要下载的数据集或模型文件下,复制url.
    如何批量下载hugging face模型和数据集文件

到你所要下载模型或数据集文件后,去掉后面的/tree/main,然后增添.git,之后使用git下载就可以了。

  1. 到控制台命令执行如下命令:
git clone https://huggingface.co/datasets/glue.git

输出

PS D:\temp> git clone https://huggingface.co/datasets/glue.git
Cloning into 'glue'...
remote: Enumerating objects: 121, done.
remote: Counting objects: 100% (121/121), done.
remote: Compressing objects: 100% (101/101), done.
Receiving objects:  91% (111/121)te: Total 121 (delta 54), reused 0 (delta 0), pack-reused 0
Receiving objects: 100% (121/121), 29.76 KiB | 3.31 MiB/s, done.
Resolving deltas: 100% (54/54), done.
Updating files: 100% (14/14), done.
Filtering content: 100% (10/10), 20.08 KiB | 6.00 KiB/s, done.

成功下载文件。

Hugging Face的数据集和模型还提供了不同的版本,要下载其他版本只需要使用git的-b参数下载对应的分支即可。文章来源地址https://www.toymoban.com/news/detail-502439.html

到了这里,关于如何批量下载hugging face模型和数据集文件的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • Hugging Face 介绍 & 快速搭建模型服务

    你可以在这个网站找到各种类型的模型 Tasks - Hugging Face 以Image To Text这个类别为例,其主要由以下几个部分构成: 类别介绍 模型尝试 模型列表 [huggingface-cli](https://huggingface.co/docs/huggingface_hub/guides/download#download-from-the-cli) 隶属于 huggingface_hub 库,不仅可以下载模型、数据,还可

    2024年01月19日
    浏览(38)
  • 使用 LoRA 和 Hugging Face 高效训练大语言模型

    在本文中,我们将展示如何使用 大语言模型低秩适配 (Low-Rank Adaptation of Large Language Models,LoRA) 技术在单 GPU 上微调 110 亿参数的 FLAN-T5 XXL 模型。在此过程中,我们会使用到 Hugging Face 的 Transformers、Accelerate 和 PEFT 库。 通过本文,你会学到: 如何搭建开发环境 如何加载并准备数

    2023年04月13日
    浏览(28)
  • 注册 Hugging Face 后的官网创建模型的教程

    Create a new model From the website Hub documentation Take a first look at the Hub features Programmatic access Use the Hub’s Python client library Getting started with our git and git-lfs interface You can create a repository from the CLI (skip if you created a repo from the website) Clone your model, dataset or Space locally Then add, commit and push any

    2024年02月20日
    浏览(38)
  • hugging face开源的transformers模型可快速搭建图片分类任务

    2017年,谷歌团队在论文「Attention Is All You Need」提出了创新模型,其应用于NLP领域架构Transformer模型。从模型发布至今,transformer模型风靡微软、谷歌、Meta等大型科技公司。且目前有模型大一统的趋势,现在transformer 模型不仅风靡整个NLP领域,且随着VIT SWIN等变体模型,成功把

    2024年02月06日
    浏览(33)
  • [算法前沿]--028-基于Hugging Face -Transformers的预训练模型微调

    本章节将使用 Hugging Face 生态系统中的库——🤗 Transformers来进行自然语言处理工作(NLP)。 Transformers的历史 以下是 Transformer 模型(简短)历史中的一些参考点: Transformer 架构于 2017 年 6 月推出。原始研究的重点是翻译任务。随后推出了几个有影响力的模型,包括: 2018 年 6

    2024年02月11日
    浏览(35)
  • Hugging Face 的文本生成和大语言模型的开源生态

    [更新于 2023 年 7 月 23 日: 添加 Llama 2。] 文本生成和对话技术已经出现多年了。早期的挑战在于通过设置参数和分辨偏差,同时控制好文本忠实性和多样性。更忠实的输出一般更缺少创造性,并且和原始训练数据更加接近,也更不像人话。最近的研究克服了这些困难,并且友

    2024年02月13日
    浏览(30)
  • Hugging face 模型微调学习:T5-base的微调

    最近想做一点文本生成的小实验,无意发现了NLPer应该了解到了一个网站:Hugging face。 Hugging face 在 github上开源了一个Transformers库,允许用户上传和下载的预训练的模型,并进行原有模型的基础上进行微调。如此,使得每个 NLPer 必须依靠大量美金才能训练出来的预训练模型,

    2024年01月18日
    浏览(30)
  • 如何安装和使用 Hugging Face Unity API

    Hugging Face Unity API 提供了一个简单易用的接口,允许开发者在自己的 Unity 项目中方便地访问和使用 Hugging Face AI 模型,已集成到 Hugging Face Inference API 中。本文将详细介绍 API 的安装步骤和使用方法。 打开您的 Unity 项目 导航至菜单栏的 Window - Package Manager 在弹出窗口中,点击

    2024年02月11日
    浏览(24)
  • 【NLP】如何使用Hugging-Face-Pipelines?

            随着最近开发的库,执行深度学习分析变得更加容易。其中一个库是拥抱脸。Hugging Face 是一个平台,可为 NLP 任务(如文本分类、情感分析等)提供预先训练的语言模型。         本博客将引导您了解如何使用拥抱面部管道执行 NLP 任务。以下是我们将在此博

    2024年02月16日
    浏览(30)
  • EasyLLM:简化语言模型处理,实现 OpenAI 和 Hugging Face 客户端的无缝切换

    在这短短不到一年的时间里,国内外涌现的大型语言模型(LLM)可谓是百花齐放,不管是开源还是闭源都出现了一些非常优秀的模型,然而在利用LLM进行应用开发的时候,会发现每个模型从部署、到训练、微调、API接口开发、Prompt提示词格式等方面都存在或多或少的差异,导

    2024年02月13日
    浏览(34)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包