深度解析 Llama 2 的资源汇总:不容错过

这篇具有很好参考价值的文章主要介绍了深度解析 Llama 2 的资源汇总:不容错过。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

 探索 Llama 2 背后的过程,包括了模型的全面解析,在线体验,微调,部署等,这份资源汇总将带您深入了解其内涵。

深度解析 Llama 2 的资源汇总:不容错过,llama

01

周二发布了文章《中文大模型 Chinese-LLaMA-Alpaca-2 开源且可以商用》后,不少朋友们对开源模型LLaMA2比较感兴趣。

LLaMA 2 是 Meta 开发的大型语言模型,是 LLaMA 1 的后续版本。LLaMA 2 可通过 AWS、Hugging Face 等平台提供商获得,并免费用于研究和商业用途。

LLaMA 2 预训练模型在 2 万亿个标记上进行训练,上下文长度是 LLaMA 1 的两倍。它的微调模型已经接受了超过 100 万个人工注释的训练。

Meta 的LLaMA2官方网站地址

https: //ai.meta.com/llama/

与 LLaMA 1 相比,新的改进包括:

  • 在 2 万亿个标记的文本数据上进行训练

  • 允许商业使用

  • 默认使用 4096 个前后文本视野

  • 70B 模型采用了分组查询注意力(GQA)

  • 可以在 Hugging Face Hub 上直接获取(https://hf.co/models?other=llama-2)

推荐朋友们先看看官方的模型使用手册‍

https://ai.meta.com/static-resource/responsible-use-guide/

02

在线体验

朋友们可以在下面几个在线网址,用对话的方式体验已经部署好的LLaMA2,不过,回复基本是英文,即使强制它使用中文回答,或者将回复翻译成中文,效果也不尽如人意。‍‍‍‍‍‍‍‍‍‍‍‍‍‍

 HuggingChat 上的 Llama 2 70B‍

https://hf.co/chat

深度解析 Llama 2 的资源汇总:不容错过,llama

Perplexity 的地址

https://llama.perplexity.ai/

深度解析 Llama 2 的资源汇总:不容错过,llama

03

Llama 2 是一个基于公开可获取网络数据训练的基础大语言模型。同时,Meta 公布了其对话模型 - Chat 版本。

初始的Chat模型是SFT(有监督调优)模型。随后,LLaMA-2-chat 通过人类反馈强化学习(RLHF)逐步演化。在RLHF过程中,采用了拒绝采样和近端策略优化(PPO)等技术,对聊天机器人进行进一步调优。

目前,Meta 仅公开了RLHF模型的最新版本(v5)。下面有一些资料是关于Llama 2的研究。

  • Llama 2: 描述了 Llama 2-Chat 的微调和安全改进方法

https://arxiv.org/abs/2307.09288

  • 对开源大语言模型Llama 2的分析

https://www.interconnects.ai/p/llama-2-from-meta

  • Llama 2 的全面拆解

https://www.youtube.com/watch?v=zJBpRn2zTco

模型评测

Meta 声称“Llama 2 在许多外部基准测试上都优于其他开源语言模型,包括推理、编码、熟练程度和知识测试”。

Hugging Face 开源大语言模型排行榜

https://hf.co/spaces/HuggingFaceH4/open_llm_leaderboard

深度解析 Llama 2 的资源汇总:不容错过,llama

Meta 官方网站

https://ai.meta.com/llama/

深度解析 Llama 2 的资源汇总:不容错过,llama

看了一下,这个只是对国外的开源模型的对比,没有国内中文的模型,也没有闭源的ChatGPT,Bard,Claude。‍‍

怎么和 LLaMA 2 聊天

Llama 2 Chat 是一个可开源的对话模型。要与 Llama 2 Chat 进行有效互动,用户需要提供适当的提示词,以获得合乎逻辑且有帮助的回复。Meta 并未选择最简单的提示词结构(不知道缘由)。

以下是单轮和多轮对话的提示词样式。

单轮对话

<s>[INST] <<SYS>>
{{ system_prompt }}
<</SYS>>


{{ user_message }} [/INST]

多轮对话

<s>[INST] <<SYS>>
{{ system_prompt }}
<</SYS>>


{{ user_msg_1 }} [/INST] {{ model_answer_1 }} </s><s>[INST] {{ user_msg_2 }} [/INST] {{ model_answer_2 }} </s><s>[INST] {{ user_msg_3 }} [/INST]

下面是关于提示词更详细的说明

  • Llama 2 论文

https://hf.co/papers/2307.09288

  • Llama 2 提示词模板

https://gpus.llm-utils.org/llama-2-prompt-template/

如何训练 LLaMA 2

LLaMA 2 是开源的模型,所以我们可以使用 PEFT 等技术进行微调。有大量学习资源可用于训练自己的 LLaMA 2 版本:

  • 扩展指引:指令微调 Llama 2

https://www.philschmid.de/instruction-tune-llama-2

  • 在 Amazon SageMaker 上微调 Llama 2 (7-70B)

https://www.philschmid.de/sagemaker-llama2-qlora

  • 使用 PEFT 技术微调

https://hf.co/blog/zh/llama2#fine-tuning-with-peft

  • Meta 提供的 Llama 模型示例以及方案

https://github.com/facebookresearch/llama-recipes/tree/main

  • 在本地机器上微调 LLAMA-v2 最简单的方法!

https://www.youtube.com/watch?v=3fsn19OI_C8

如何部署 LLaMA 2

LLaMA 2 可以部署在本地环境(参考:llama.cpp),使用Hugging Face Inference Endpoints等托管服务部署,或通过 AWS、Google Cloud 和 Microsoft Azure 等云平台。

  • llama.cpp

https://github.com/ggerganov/llama.cpp

  • 使用文本生成接口与推理终端来部署 LLama 2

https://hf.co/blog/llama2#using-text-generation-inference-and-inference-endpoints

  • 使用 Amazon SageMaker 部署 LLaMA 2 70B

https://www.philschmid.de/sagemaker-llama-llm

  • 在 Mac (M1/M2)上通过 GPU 接口来本地部署 Llama-2-13B-chat

https://gist.github.com/adrienbrault/b76631c56c736def9bc1bc2167b5d129


‍‍‍‍

原文地址(英文):

https://www.philschmid.de/llama-2

阅读推荐:

OpenAI又推新:使用ChatGPT进行内容审核

中文大模型 Chinese-LLaMA-Alpaca-2 开源且可以商用

OpenAI 或于 2024 年底破产?外媒也这么爱标题党

LLama2详细解读 | Meta开源之光LLama2是如何追上ChatGPT的?

ChatGPT 的“自定义”功能对免费用户开放,在问题信息不足情况下还会反问来获取必要信息

ChatGLM团队发布AI Agent能力评测工具AgentBench:GPT-4一骑绝尘,开源模型表现非常糟糕!

ChatGPT 微信助手上线!问答更便捷,功能持续升级中。

拥抱未来,学习 AI 技能!关注我,免费领取 AI 学习资源。文章来源地址https://www.toymoban.com/news/detail-675802.html

到了这里,关于深度解析 Llama 2 的资源汇总:不容错过的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 爆肝3W多字,100多张配图!深度学习从小白到精通一篇博文帮你打开人工智能的大门建议收藏不容错过!!!

    🤡博客主页:Code_文晓 😻 欢迎关注: 感谢大家的点赞评论+关注,祝您学有所成!   在介绍深度学习之前,我们先看下这幅图:人工智能机器学习深度学习。 深度学习是机器学习的⼀个子集,也就是说深度学习是实现机器学习的一种方法。与机器学习算法的主要区别如下

    2024年03月24日
    浏览(47)
  • LLaMA 2 - 你所需要的一切资源

    关于 LLaMA 2 的全部资源,如何去测试、训练并部署它。 LLaMA 2 是一个由 Meta 开发的大型语言模型,是 LLaMA 1 的继任者。LLaMA 2 可通过 AWS、Hugging Face 等提供商获取,并免费用于研究和商业用途。LLaMA 2 预训练模型在 2 万亿个标记上进行训练,相比 LLaMA 1 的上下文长度增加了一倍

    2024年02月19日
    浏览(32)
  • 如何把音频转成文字?这几个方法不容错过

    随着时代的变化,越来越多人上课时都选择了使用平板、手机、电脑等智能设备来进行记录。这样不仅节省笔墨,还可以在记录速度跟不上老师讲解时用录音软件将其录制下来,课后使用其他软件来将音频转换成文字。先前在上课时我就碰到了这种情况,不得不说将音频转换

    2023年04月14日
    浏览(53)
  • 你知道ai绘画怎么弄吗?这三个方法不容错过

    在一个寂静的夜晚,艺术家安娜沉浸在它的绘画创作灵感中,用画笔将她的内心世界映射到画布上。然而,随着作品逐渐完成,安娜陷入了一个困扰:她如何保存这幅由ai帮助创作的绘画作品呢?其实并不难,屏幕前的小伙伴如果和安娜一样不知道ai绘画图片怎么保存,那就来

    2024年02月16日
    浏览(43)
  • 想把PDF转成Word?这三个免费在线工具不容错过!

    在日常工作和学习中,我们经常会遇到需要将PDF文件转为Word文档的情况。本文将介绍三种不同的PDF转Word的方法。 首先是推荐的PDF转Word网站:记灵在线工具(http://remeins.com)。 这是一个功能非常强大的PDF在线处理网站,可以完全免费卷羊毛。它可以满足PDF处理的所有要求,包

    2024年02月03日
    浏览(62)
  • 轻松打造完美客户服务系统,这4个关键点不容错过

      客户服务对于一个企业来说非常重要,有以下几个原因: 1、建立客户忠诚度:通过提供高质量的客户服务,可以增加客户满意度和忠诚度。这将有助于企业保持竞争优势并吸引新客户。 2、提高客户满意度:客户对企业的服务感到满意时,他们更有可能再次购买或推荐给朋

    2024年02月04日
    浏览(50)
  • 你想要的PDF预览新方式,微信小程序绝对不容错过

    随着微信小程序的不断发展和变革,越来越多的功能被开发出来,其中预览 PDF 文件功能也已经成为小程序的常见应用之一。今天,我们将针对微信小程序预览 PDF 这一功能,为大家详细解析和介绍。 在小程序界面中添加一个按钮,并为其绑定一个点击事件; 在事件中调用

    2024年02月10日
    浏览(45)
  • LLaMA细节与代码解析

    Meta最新模型LLaMA细节与代码详解 0. 简介 1. 项目环境依赖 2. 模型细节 2.1 RMS Pre-Norm 2.2 SwiGLU激活函数 2.3 RoPE旋转位置编码 3. 代码解读 3.1 tokenizer 3.2 model 3.2.1 模型细节详解 3.2.2 transformer构建 3.3 generate 4. 推理 0. 简介 今天介绍的内容是Facebook Meta AI最新提出的语言模型LLaMA,该模型

    2024年02月10日
    浏览(37)
  • 【大模型】基于 LlaMA2 的高 star 的 GitHub 开源项目汇总

    2023年7月19日:Meta 发布开源可商用模型 Llama2。 Llama2 是一个预训练和微调的生成文本模型的集合,其规模从70亿到700亿个参数不等。 LLaMA2 的详细介绍可以参考这篇文章:【大模型】更强的 LLaMA2 来了,开源可商用、与 ChatGPT 齐平 下面介绍几个高 star 的 GitHub 开源项目: star 数

    2024年02月10日
    浏览(43)
  • JVM运行时数据区的必备知识:Java程序员不容错过

    JVM运行时数据区是Java虚拟机在执行Java程序时所使用的内存区域。这些区域包括了以下几个部分: 程序计数器(Program Counter Register):程序计数器是一块较小的内存区域,它可以看作是当前线程所执行的字节码的行号指示器。每一个线程都有自己独立的程序计数器,用于记录

    2023年04月15日
    浏览(49)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包