Hugging News #0814: Llama 2 学习资源大汇总

这篇具有很好参考价值的文章主要介绍了Hugging News #0814: Llama 2 学习资源大汇总。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

每一周,我们的同事都会向社区的成员们发布一些关于 Hugging Face 相关的更新,包括我们的产品和平台更新、社区活动、学习资源和内容更新、开源库和模型更新等,我们将其称之为「Hugging News」。本期 Hugging News 有哪些有趣的消息,快来看看吧!🎉😍

重磅更新

Llama 2 学习资源大汇总!🔥🦙

Hugging News #0814:  Llama 2 学习资源大汇总,llama,学习

🦙 Llama 2 是由 Meta 推出的新型开放式大型语言模型。我们很高兴能够将其全面集成入 Hugging Face,并全力支持其发布。通过 Hugging Face,它可以免费用于研究和商业用途。预训练模型基于 2 万亿令牌进行训练,上下文长度是 Llama 1 的两倍!你可以在 Hugging Face 上找到具有 70 亿、130 亿和 700 亿参数的模型 🌐🧑‍💻

通过与 Meta 合作,我们已经顺利地完成了对 Llama 2 的集成,你可以在 Hub 上找到 12 个开放模型 (3 个基础模型以及 3 个微调模型,每个模型都有 2 种 checkpoint: 一个是 Meta 的原始 checkpoint,一个是 Transformers 格式的 checkpoint)。以下列出了 Hugging Face 支持 Llama 2 的主要工作:

Llama 2 已入驻 Hub: 包括模型卡及相应的许可证。支持 Llama 2 的 Transformers 库 使用单 GPU 微调 Llama 2 小模型的示例 Text Generation Inference (TGI) 已集成 Llama 2,实现快速高效的生产化推理 推理终端 (Inference Endpoints) 已集成 Llama 2

我们为大家准备了两篇文章,帮助大家更好的学习理解和使用 Llama 2。在第一篇文章中,我们讨论了以下几点:

为什么选择 Llama 2?Demo 演示 使用 Transformers 进行推理 使用推理终端(Inference Endpoints)进行推理 使用 PEFT 进行微调 如何提示(prompt) Llama 2

👉https://hf.co/blog/zh/llama2

在第二篇文章中,我们对 Llama 2 进行了如下的讨论:

Llama 2 是什么?你可以用来测试 Llama 2 的不同的 playgrounds Llama 2 模型背后的研究 Llama 2 的性能如何,基准测试 如何正确设置对话模型的提示 如何使用 PEFT 对 Llama 2 进行训练 如何部署 Llama 2 以进行推断

👉https://www.philschmid.de/llama-2

Llama 2 现已登陆 Hugging Chat 🤗🦙

Hugging News #0814:  Llama 2 学习资源大汇总,llama,学习

现在在 Hugging Chat 可以尝试免费使用 Llama 2 70B 聊天模型(在页面右上角选择模型 Llama-2-70b-chat-hf 即可),享受超快的推断速度、网络搜索功能!

👉http://hf.co/chat

这个项目由以下技术支持:

文本生成推理(Text-generation-inference),用于生产环境的大型语言模型服务工具:
https://github.com/huggingface/text-generation-inference
Hugging Face 的开源的大型语言模型用户界面 Chat UI:
https://github.com/huggingface/chat-ui Llama 2
模型:
https://huggingface.co/meta-llama

使用 Autotrain 对 Llama 2 进行微调

Hugging News #0814:  Llama 2 学习资源大汇总,llama,学习

这个视频讲述了如何使用 Hugging Face 的 Autotrain 在 Google Colab 的免费版本上对 Llama 2 进行训练。这是在 Google Colab 的免费版本或者在本地计算机上使用自定义数据集进行 llama-v2 微调的简单的方法,这个方法也适用于任何其他 LLM。AutoTrain 是自动训练和部署机器学习模型的一种方式,可以与 Hugging Face 的生态系统无缝集成。

👉https://youtube.com/watch?v=3fsn19OI_C8&ab_channel=AbhishekThakur

用几行代码就可使用自己的数据训练 Llama 2!

Hugging News #0814:  Llama 2 学习资源大汇总,llama,学习

你可以在短短几行代码中对所有 Llama-2 模型使用自己的数据进行训练!通过使用 4-bit 和 PEFT,即使在单个 A100 GPU 上,这个脚本也可以用于 70B 模型的训练。你可以在 T4 GPU 上进行 7B 的训练(即在 Colab 上可以免费获取的资源),或者在 A100 GPU 上进行 70B 的训练。

4-bit 在这里指的是四位量化(4-bit quantization),是一种将模型的权重量化为更低比特数的技术。在深度学习中,通常模型的权重会以较高的浮点数表示,这需要更大的存储和计算资源。通过量化,可以将权重表示为更短的二进制位数,从而减小模型的存储需求和计算成本。四位量化意味着权重将被表示为只有 4 个二进制位的数字,这样可以大幅减小权重的表示大小。然而,量化也会引入一定的信息损失,因为权重的精度被降低了。为了缓解这种损失,通常会使用特殊的量化技术,如对称量化或非对称量化,以尽量保留模型的性能。

PEFT(Parameter Efficient Fine-Tuning)是一种用于微调神经网络模型的技术,旨在在保持模型性能的同时,显著减少微调所需的计算资源和时间。这对于在资源有限的环境下进行模型微调非常有用。PEFT 的主要思想是通过使用较小的学习率来微调模型的一部分参数,而不是对整个模型的所有参数进行微调。具体来说,PEFT 将模型的参数分为不同的组,然后在每个组上应用不同的学习率。这样可以将微调的计算开销分布到多个小批次中,从而减少了每个小批次的计算负担,使得模型可以在较小的设备上进行高效微调。

你可以轻松地使用 SFTTrainer 和官方脚本对 Llama2 模型进行微调。例如,要对 llama2-7b 在 Guanaco 数据集上进行微调,请运行以下命令(已在单个 NVIDIA T4-16GB 上进行了测试):

''' python examples/scripts/sft_trainer.py --model_name meta-llama/Llama-2-7b-hf --dataset_name timdettmers/openassistant-guanaco --load_in_4bit --use_peft --batch_size 4 --gradient_accumulation_steps 2 '''

了解更多:https://hf.co/docs/trl/main/en/lora_tuning_peft#finetuning-llama2-model完整脚本:https://github.com/lvwerra/trl/blob/main/examples/scripts/sft_trainer.py


以上就是本期的 Hugging News,新的一周开始了,我们一起加油!💪🎉

额外内容:

Hugging Face 加入 PyTorch 基金会并成为首要成员

Hugging News #0814:  Llama 2 学习资源大汇总,llama,学习

本周,作为一个深度学习社区的中立家园,PyTorch 基金会宣布 Hugging Face 已加入为首要成员。✨

Hugging Face 一直是 PyTorch 生态系统的长期支持者和贡献者,通过提供强大的模型和资源加速了 AI 技术的研究、开发和应用,特别是在自然语言处理领域。

🚀 “我们的使命一直是民主化 AI,使之可供所有人使用。我们与 PyTorch 的目标实现从业者减少进入门槛的目标是真正一致的。通过加入 PyTorch 基金会,我们可以进一步放大这种影响,并支持生态系统中非常重要的 PyTorch 框架。”Hugging Face 开源负责人 Lysandre Debut 表示。“我们相信这两个生态系统有很大的重叠,与基金会合作将使我们能够弥合差距,向机器学习社区提供最好的软件和最好的工具。”

Hugging Face 的模型中心和开源库促进了 AI 开源社区内的协作和知识共享,使 Hugging Face 与不断壮大的 PyTorch 基金会非常匹配。他们继续通过创建用户友好的工具和资源以及提供易于使用和有文档记录的库来推动行业的采用和协作。

作为首要成员,Hugging Face 获得了一席 PyTorch 基金会治理委员会的席位。该委员会通过我们的章程、使命和愿景声明制定政策,描述基金会倡议的总体范围、技术愿景和方向。🤝

TRL 正式推出,来训练你的首个 RLHF 模型吧

Hugging News #0814:  Llama 2 学习资源大汇总,llama,学习

正式向大家介绍 TRL——Transformer Reinforcement Learning。这是一个超全面的全栈库,包含了一整套工具用于使用强化学习 (Reinforcement Learning) 训练 transformer 语言模型。从监督调优 (Supervised Fine-tuning step, SFT),到训练奖励模型 (Reward Modeling),再到近端策略优化 (Proximal Policy Optimization),实现了全面覆盖!并且 TRL 库已经与 🤗 transformers 集成,方便你直接使用!

👉 文档地址在这里https://hf.co/docs/trl/

小编带大家简单看看 API 文档里各个部分对应了什么需求:

Model Class: 涵盖了每个公开模型各自用途的概述 SFTTrainer: 帮助你使用 SFTTrainer 实现模型监督调优 RewardTrainer: 帮助你使用 RewardTrainer 训练奖励模型 PPOTrainer: 使用 PPO 算法进一步对经过监督调优的模型再调优 Best-of-N Samppling: 将“拔萃法”作为从模型的预测中采样的替代方法 DPOTrainer: 帮助你使用 DPOTrainer 完成直接偏好优化

文档中还给出了几个例子供 🤗 宝子们参考:

  • Sentiment Tuning: 调优模型以生成更积极的电影内容\

  • Training with PEFT: 执行由 PEFT 适配器优化内存效率的 RLHF 训练 

  • Detoxifying LLMs: 通过 RLHF 为模型解毒,使其更符合人类的价值观

  • StackLlama: 在 Stack exchange 数据集上实现端到端 RLHF 训练一个 Llama 模型 

  • Multi-Adapter Training: 使用单一模型和多适配器实现优化内存效率的端到端训练

👉 宝子们快行动起来,训练你的第一个 RLHF 模型吧!文章来源地址https://www.toymoban.com/news/detail-650549.html

到了这里,关于Hugging News #0814: Llama 2 学习资源大汇总的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 使用代码下载开源的大模型文件示例以及中文微调llama资源汇总:

    一、下载示例  二、资源汇总 Chinese Llama 2 7B 链接:LinkSoul/Chinese-Llama-2-7b · Hugging Face OpenBuddy-LLaMA2-13B 链接:OpenBuddy/openbuddy-llama2-13b-v8.1-fp16 · Hugging Face firefly-llama2-13b 链接:GitHub - yangjianxin1/Firefly: Firefly(流萤): 中文对话式大语言模型(全量微调+QLoRA),支持微调Llma2、Llama、Qwen、

    2024年02月13日
    浏览(42)
  • 【最新】生成式人工智能(AIGC)与大语言模型(LLM)学习资源汇总

    a) Andrej Karpathy 的 - 大型语言模型简介:https://www.youtube.com/watch?v=zjkBMFhNj_g 该视频对 LLMs 进行了一般性和高级的介绍,涵盖推理、缩放、微调、安全问题和提示注入等主题。 b) Nvidia 的生成式 AI 介绍:Course Detail | NVIDIA 注意: 本课程需要您先登录 nvidia,然后才能看到详细信息。

    2024年04月26日
    浏览(54)
  • Llama 2 来袭 - 在 Hugging Face 上玩转它

    🤗 宝子们可以戳 阅读原文 查看文中所有的外部链接哟! 今天,Meta 发布了 Llama 2,其包含了一系列最先进的开放大语言模型,我们很高兴能够将其全面集成入 Hugging Face,并全力支持其发布。Llama 2 的社区许可证相当宽松,且可商用。其代码、预训练模型和微调模型均于今天

    2024年02月15日
    浏览(42)
  • Hugging News #0428: HuggingChat 来啦

    每一周,我们的同事都会向社区的成员们发布一些关于 Hugging Face 相关的更新,包括我们的产品和平台更新、社区活动、学习资源和内容更新、开源库和模型更新等,我们将其称之为「Hugging News」,本期 Hugging News 有哪些有趣的消息,快来看看吧! 我们认为需要有一个 ChatGP

    2024年02月01日
    浏览(35)
  • Hugging News #0904: 登陆 AWS Marketplace

    每一周,我们的同事都会向社区的成员们发布一些关于 Hugging Face 相关的更新,包括我们的产品和平台更新、社区活动、学习资源和内容更新、开源库和模型更新等,我们将其称之为「Hugging News」。本期 Hugging News 有哪些有趣的消息,快来看看吧!🎉😍 Hugging Face 登陆 AWS Ma

    2024年02月09日
    浏览(31)
  • Hugging News #0519: 我们把 HuggingChat 开源了

    每一周,我们的同事都会向社区的成员们发布一些关于 Hugging Face 相关的更新,包括我们的产品和平台更新、社区活动、学习资源和内容更新、开源库和模型更新等,我们将其称之为「Hugging News」,本期 Hugging News 有哪些有趣的消息,快来看看吧! Chat UI 是我们 HuggingChat 应用

    2024年02月05日
    浏览(62)
  • Hugging News #0526: Hugging Cast 发布第一期、邀请来认领自己的论文啦!

    每一周,我们的同事都会向社区的成员们发布一些关于 Hugging Face 相关的更新,包括我们的产品和平台更新、社区活动、学习资源和内容更新、开源库和模型更新等,我们将其称之为「Hugging News」,本期 Hugging News 有哪些有趣的消息,快来看看吧! Hugging Cast 是由 Hugging Face 团

    2024年02月06日
    浏览(48)
  • 【学习资源】C#初学者学习资源推荐

    大家好,这是笔者自己自行整理的C#学习资源推荐,包含 网站、书籍和社区 ,方便自己学习的同时分享出来,希望可以帮到大家谢谢。 首先笔者最推荐的当然是我们微软 官方的学习文档 :官方C#文档, 众所周知官方的文档永远是最全面的,最权威的,更新最及时的。而其它

    2024年02月05日
    浏览(95)
  • LLaMA 2 - 你所需要的一切资源

    关于 LLaMA 2 的全部资源,如何去测试、训练并部署它。 LLaMA 2 是一个由 Meta 开发的大型语言模型,是 LLaMA 1 的继任者。LLaMA 2 可通过 AWS、Hugging Face 等提供商获取,并免费用于研究和商业用途。LLaMA 2 预训练模型在 2 万亿个标记上进行训练,相比 LLaMA 1 的上下文长度增加了一倍

    2024年02月19日
    浏览(29)
  • 3dMax全球学习资源、资源文件和教程 !

    此样例教育教程和学习资源旨在提供使用Autodesk 3ds Max时的计划知识和培训、正确的工作流、流程管理和最佳实践。 您在Autodesk三维设计领域的职业生涯 有关使用3ds Max和Maya在计算机图形领域开始职业生涯的提示(包括新的3ds Max和Maya介绍教程,以复习您的技能) 确保3ds Max场

    2024年02月09日
    浏览(37)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包