[玩转AIGC]LLaMA2之如何微调模型

这篇具有很好参考价值的文章主要介绍了[玩转AIGC]LLaMA2之如何微调模型。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

1、下载训练脚本

首先我们从github上下载Llama 2的微调代码:GitHub - facebookresearch/llama-recipes: Examples and recipes for Llama 2 model

执行命令:

git clone https://github.com/facebookresearch/llama-recipes
cd llama-recipes

下载完成之后,安装对应环境,执行命令:

pip install -r requirements.txt

2、 下载模型

在这里我补充一下模型下载权限的申请

2.1、申请下载权限

需先在Meta上申请权限(国家选中国不行,要选其他国家)
https://ai.meta.com/resources/models-and-libraries/llama-downloads/

申请的邮箱必须是跟huggingface注册邮箱一致

申请完权限之后你会收到邮件:
[玩转AIGC]LLaMA2之如何微调模型,玩转AIGC,AIGC
然后再去HuggingFace上submit权限申请,连接在下面
https://huggingface.co/meta-llama/Llama-2-7b-hf

打开后点击提交:
[玩转AIGC]LLaMA2之如何微调模型,玩转AIGC,AIGC

提交后还要等待仓库作者的确认,请求将在 1-2 天内得到处理

实测大概一个小时,会有邮件通知已授权,邮件如下:
[玩转AIGC]LLaMA2之如何微调模型,玩转AIGC,AIGC
然后回到HuggingFace

点击头像->setting->Access Tokens 里面获取tokens

[玩转AIGC]LLaMA2之如何微调模型,玩转AIGC,AIGC
没有的话就自己创建一个token,也就是点击new token,再把创建的token复制下来

2.2、模型下载

有了权限就可以从HuggingFace上下载模型:https://huggingface.co/meta-llama

打开可看到模型有多个:

[玩转AIGC]LLaMA2之如何微调模型,玩转AIGC,AIGC
这里我们选择:Llama-2-7b-hf

通过代码下载:

下面的your token就是要填从你自己的HuggingFace复制下来的token,根据上面的步骤走过来,你已经申请过权限了,所以token可用


import huggingface_hub

huggingface_hub.snapshot_download(
        "meta-llama/Llama-2-7b-hf",
        local_dir="./Llama-2-7b-hf",
        token="your token"
)

import huggingface_hub

huggingface_hub.snapshot_download(
        "meta-llama/Llama-2-7b-hf",
        local_dir="./Llama-2-7b-hf",
        token="**********************"
)

3、模型微调

3.1、使用单卡微调

#创建模型输出文件
mkdir output

# 使用单卡
export CUDA_VISIBLE_DEVICES=0

#开始训练
python llama_finetuning.py  --use_peft --peft_method lora --quantization --model_name Llama-2-7b-hf --output_dir output

3.2、使用多卡训练:

比如多GPU单节点文章来源地址https://www.toymoban.com/news/detail-772550.html


torchrun --nnodes 1 --nproc_per_node 4  examples/finetuning.py --enable_fsdp --use_peft --peft_method lora --model_name /path_of_model_folder/7B --fsdp_config.pure_bf16 --output_dir path/to/save/PEFT/model

到了这里,关于[玩转AIGC]LLaMA2之如何微调模型的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 【LangChain学习之旅】—(7) 调用模型:使用OpenAI API还是微调开源Llama2/ChatGLM?

    Reference:LangChain 实战课 之前的内容讲了提示工程的原理以及 LangChain 中的具体使用方式。今天,我们来着重讨论 Model I/O 中的第二个子模块,LLM。 让我们带着下面的问题来开始这一节课的学习。大语言模型,不止 ChatGPT 一种。调用 OpenAI 的 API,当然方便且高效,不过,如果我

    2024年02月01日
    浏览(60)
  • LLMs之LLaMA-2:基于云端进行一键部署对LLaMA2模型实现推理(基于text-generation-webui)执行对话聊天问答任务、同时微调LLaMA2模型(配置云端环境【A100】→下载

    LLMs之LLaMA-2:基于云端进行一键部署对LLaMA2模型实现推理(基于text-generation-webui)执行对话聊天问答任务、同时微调LLaMA2模型(配置云端环境【A100】→下载数据集【datasets】→加载模型【transformers】→分词→模型训练【peft+SFTTrainer+wandb】→基于HuggingFace实现云端分享)之图文教程详

    2024年02月05日
    浏览(51)
  • LLMs:LLaMA Efficient Tuning(一款可高效微调【全参数/LoRA/QLoRA】主流大模型【ChatGLM2/LLaMA2/Baichuan等】的高效工具【预训练+指令监督微调+

    LLMs:LLaMA Efficient Tuning(一款可高效微调【全参数/LoRA/QLoRA】主流大模型【ChatGLM-2/LLaMA-2/Baichuan等】的高效工具【预训练+指令监督微调+奖励模型训练+PPO 训练+DPO 训练】)的简介、安装、使用方法之详细攻略 目录 相关文章 LLMs之ChatGLM:ChatGLM Efficient Tuning(一款高效微调ChatGLM-6B/Ch

    2024年02月09日
    浏览(67)
  • 如何优雅地下载huggingface上模型,以llama2模型下载为例

    由于llama2模型的下载需要经过官方的授权,这就需要登陆hugging face的,对模型页面进行申请。等待审核通过后,才能够下载。如果在单纯用 git lfs 的方式进行下载,需要输入账号和密码。为了更快速地进行下载,既能够设置密码、也能够设置代理,采用脚本的方式会更加合适

    2024年02月16日
    浏览(60)
  • 如何用华为云ModelArts平台玩转Llama2

    本文分享自华为云社区《如何用华为云ModelArts平台玩转Llama2》,作者:码上开花_Lancer。 天哪~~ Llama2模型开源了拉!!   Llama2不仅开源了预训练模型,而且还开源了利用对话数据SFT后的Llama2-Chat模型,并对Llama2-Chat模型的微调进行了详细的介绍。 开源模型目前有7B、13B、70B三种

    2024年02月08日
    浏览(31)
  • Llama2跟进:GPU硬件要求、微调注意事项等【202307】

    在过去几天里关注Llama 2 的所有新闻已经超出了全职工作的范围。 信息网络确实充满了拍摄、实验和更新。 至少还要再过一周,但已经有一些关键点了。 推荐:用 NSDT设计器 快速搭建可编程3D场景。 在这篇文章中,我将澄清我对原始帖子中有关 Llama 2 的所有内容所做的一些

    2024年02月15日
    浏览(38)
  • 如何让 Llama2、通义千问开源大语言模型快速跑在函数计算上?

    :::info 本文是“在Serverless平台上构建AIGC应用”系列文章的第一篇文章。 ::: 随着ChatGPT 以及 Stable Diffusion,Midjourney 这些新生代 AIGC 应用的兴起,围绕AIGC应用的相关开发变得越来越广泛,有呈井喷之势,从长远看这波应用的爆发不仅仅是停留在形式之上,更是在各个领域产生实

    2024年02月09日
    浏览(46)
  • AIGC时代,大模型微调如何发挥最大作用?

    人工智能的快速发展推动了大模型的广泛应用,它们在语言、视觉、语音等领域的应用效果已经越来越好。但是,训练一个大模型需要巨大的计算资源和时间,为了减少这种资源的浪费,微调已经成为一种流行的技术。微调是指在预训练模型的基础上,通过在小数据集上的训

    2024年02月08日
    浏览(43)
  • 一文带你UI界面玩转ChatGLM以及Llama的微调

    Lora微调的概念:         lora是Low-Rank Adaptation的缩写,是微软的Hu等人于2021年挂在ArXiv上(后又发表在ICLR2022上)的一篇论文《LoRA: Low-Rank Adaptation of Large Language Models》中提出的,通俗来讲,是一种 降低模型可训练参数 ,又 尽量不损失模型表现 的 大模型微调 方法。为什

    2024年02月03日
    浏览(50)
  • 基于Llama2模型的开源模型

      2023年7月18日Meta开源了Llama2,在2万亿个Token上训练,可用于商业和研究,包括从7B到70B模型权重、预训练和微调的代码。相比Llama1,Llama2有较多提升,评估结果如下所示: 基于Llama2模型的开源模型如下所示: 1.WizardCoder Python V1.0 2.Phind Code Llama v1 3.WizardLM 70B V1.0 4.Dophin Llam

    2024年02月10日
    浏览(41)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包