如何优雅地下载huggingface上模型,以llama2模型下载为例

这篇具有很好参考价值的文章主要介绍了如何优雅地下载huggingface上模型,以llama2模型下载为例。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

背景

由于llama2模型的下载需要经过官方的授权,这就需要登陆hugging face的,对模型页面进行申请。等待审核通过后,才能够下载。如果在单纯用 git lfs 的方式进行下载,需要输入账号和密码。为了更快速地进行下载,既能够设置密码、也能够设置代理,采用脚本的方式会更加合适,不会因为随便改动代理而引发其他问题。

具体实现

使用huggingface_hub进行下载。首先安装huggingface_hub库:

pip install huggingface_hub 

huggingface_hub提供了多种模型下载的方案:huggingface_hub 下载方法 感兴趣可以进一步阅读。

再在 hugging face官网生成自己账号的access token:
如何优雅地下载huggingface上模型,以llama2模型下载为例,LLM,LLM,人工智能,模型下载,huggingface
再在目标模型页面申请 llama2 的下载权限,这个需要等待一点儿时间,我这边大概10分钟左右就通过了。

下面实例是将Llama-2-7b-hf下载到本地指定目录。具体示例代码如下:文章来源地址https://www.toymoban.com/news/detail-604056.html

#!/usr/bin/env python
# -*- coding: utf-8 -*-
# @Time    : 2023/7/25 14:29
# @Author  : JasonLiu
# @File    : download_hf.py
from huggingface_hub import snapshot_download

repo_id = "meta-llama/Llama-2-7b-hf"  # 模型在huggingface上的名称
local_dir = "/home/model_zoo/LLM/llama2/Llama-2-7b-hf/"  # 本地模型存储的地址
local_dir_use_symlinks = False  # 本地模型使用文件保存,而非blob形式保存
token = "XXX"  # 在hugging face上生成的 access token

# 如果需要代理的话
proxies = {
    'http': 'XXXX',
    'https': 'XXXX',
}

snapshot_download(
    repo_id=repo_id,
    local_dir=local_dir,
    local_dir_use_symlinks=local_dir_use_symlinks,
    token=token,
    proxies=proxies
)

到了这里,关于如何优雅地下载huggingface上模型,以llama2模型下载为例的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • LLMs之LLaMA2:基于text-generation-webui工具来本地部署并对LLaMA2模型实现推理执行对话聊天问答任务(一键安装tg webui+手动下载模型+启动WebUI服务)、同时

    LLMs之LLaMA-2:基于text-generation-webui工具来本地部署并对LLaMA2模型实现推理执行对话聊天问答任务(一键安装tg webui+手动下载模型+启动WebUI服务)、同时微调LLaMA2模型(采用Conda环境安装tg webui+PyTorch→CLI/GUI下载模型→启动WebUI服务→GUI式+LoRA微调→加载推理)之图文教程详细攻略 目

    2024年02月11日
    浏览(29)
  • 如何让 Llama2、通义千问开源大语言模型快速跑在函数计算上?

    :::info 本文是“在Serverless平台上构建AIGC应用”系列文章的第一篇文章。 ::: 随着ChatGPT 以及 Stable Diffusion,Midjourney 这些新生代 AIGC 应用的兴起,围绕AIGC应用的相关开发变得越来越广泛,有呈井喷之势,从长远看这波应用的爆发不仅仅是停留在形式之上,更是在各个领域产生实

    2024年02月09日
    浏览(26)
  • LLMs之LLaMA-2:基于text-generation-webui工具来本地部署并对LLaMA2模型实现推理执行对话聊天问答任务(一键安装tg webui+手动下载模型+启动WebUI服务)、同

    LLMs之LLaMA-2:基于text-generation-webui工具来本地部署并对LLaMA2模型实现推理执行对话聊天问答任务(一键安装tg webui+手动下载模型+启动WebUI服务)、同时微调LLaMA2模型(采用Conda环境安装tg webui+PyTorch→CLI/GUI下载模型→启动WebUI服务→GUI式+LoRA微调→加载推理)之图文教程详细攻略 目

    2024年02月08日
    浏览(32)
  • [玩转AIGC]如何训练LLaMA2(模型训练、推理、代码讲解,并附可直接运行的kaggle连接)

    Llama 2,基于优化的 Transformer 架构,是Meta AI正式发布的最新一代开源大模型,一系列模型(7b、13b、70b)均开源可商用,效果直逼gpt3.5。 下面我们来介绍如何使用Llama 2来训练一个故事生成模型。 如果迫不及待想爽一把先,请直接跳到这里,可直接运行:llama2-c, 学习不就是

    2024年02月12日
    浏览(27)
  • 如何从huggingface官网下载模型

    何从huggingface官网下载模型 操作步骤: 首先打开huggingface官网:https://huggingface.co/ 进入官网之后,点击“Models\\\",如下图:   如果想要下载数据集,则同样的操作方法,点击”Datasets“. 进入”Models“,之后,在搜索框,输入想要download的模型名称。本文示例是:bert-base-cased   找

    2024年02月11日
    浏览(33)
  • 如何修改大模型的位置编码 --以LLama为例

    最近在看RoPE相关内容,一些方法通过简单修改位置编码就可以无需训练支持更长的文本内容。由于一些模型,已经训练好了,但是怎么修改已经训练好的模型位置编码。查了以下相关代码,记录一下。原理这里就不细讲了,贴几个相关博客。 十分钟读懂旋转编码(RoPE) Tr

    2024年04月15日
    浏览(21)
  • 基于Llama2模型的开源模型

      2023年7月18日Meta开源了Llama2,在2万亿个Token上训练,可用于商业和研究,包括从7B到70B模型权重、预训练和微调的代码。相比Llama1,Llama2有较多提升,评估结果如下所示: 基于Llama2模型的开源模型如下所示: 1.WizardCoder Python V1.0 2.Phind Code Llama v1 3.WizardLM 70B V1.0 4.Dophin Llam

    2024年02月10日
    浏览(30)
  • 逐行对比LLaMA2和LLaMA模型源代码

    几个小时前(2023年7月18日),Meta发布了允许商用的开源模型LLaMA2。笔者逐行对比了LLaMA2模型源代码,和LLaMA相比,几乎没有改动,细节如下: 是否改动 LLaMA2 LLaMA 模型整体构架 无 Transformer Transformer 规范化函数 无 均方根规范化(RMSNorm) 均方根规范化(RMSNorm) 位置编码 无

    2024年02月16日
    浏览(31)
  • 大模型Llama2部署,基于text-generation-webui、Llama2-Chinese

    参考安装教程:傻瓜式!一键部署llama2+chatglm2,集成所有环境和微调功能,本地化界面操作! Github地址:GitHub - oobabooga/text-generation-webui: A Gradio web UI for Large Language Models. Supports transformers, GPTQ, llama.cpp (ggml/gguf), Llama models. 模型下载地址:meta-llama/Llama-2-13b-chat-hf at main 遇到的问

    2024年02月08日
    浏览(37)
  • [linux] huggingface transformers 如何下载模型至本地 & git lfs install 报错

    bert-base-uncased at main 但是 git lfs install 的时候报错。 于是查了一下。。。。安装lfs是要这样:  You can\\\'t directly use Instead of that, you can use these commands to download and install (you have to download it before installing). 网络不好mac报错:重新安了一下brew install git-lfs。。 如果失败,则。。。可能

    2024年02月10日
    浏览(43)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包