【类ChatGPT】中文LLaMA-2、Alpaca-2 二代羊驼大模型体验

这篇具有很好参考价值的文章主要介绍了【类ChatGPT】中文LLaMA-2、Alpaca-2 二代羊驼大模型体验。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

前言        

Meta发布的一代LLaMA已经掀起了一股开源大模型热潮,也有很多相关工作不断涌现。最近Meta全新发布了Llama-2,效果更上一层楼。而且最重要的是模型可以相对随意分发了,不像一代一样,meta不让开发者发布基于llama模型训练出来的权重(原版当然更不可以)。

既然有了Llama-2,国内开发者应该也会很快做出适配的吧。

我大概搜索了一下github,以chinese llama 2为关键字搜索,能看到已经有一些项目了。不过感觉其中有几个是挺像YX号的,为什么这么说呢,进去之后有卖课的PR(手动狗头)。

所以这次还是选择之前一直评测的Chinese LLaMA&Alpaca项目的二代项目。​​​​​​​

【类ChatGPT】中文LLaMA-2、Alpaca-2 二代羊驼大模型体验,chatgpt,llama,人工智能,自然语言处理

项目地址:https://github.com/ymcui/Chinese-LLaMA-Alpaca-2

这个项目的特点

熟悉Llama-2的伙伴应该知道,7B和13B模型和一代的结构完全一样,所以原则上一代的相关代码都可以在这上用。但如果只是用一代的代码在Llama-2上调一下就拿出来可能也没有什么意思。好在这个项目确实也紧跟了学术界最新的一些技术,比如

  • FlashAttention-2:这个技术可以让注意力机制计算的更快,好像是在CUDA底层方面做了一些改进,需要一些新架构的GPU(比如A100等)才能支持。有了这个可以让训练和推理变得更快

【类ChatGPT】中文LLaMA-2、Alpaca-2 二代羊驼大模型体验,chatgpt,llama,人工智能,自然语言处理

  • 超长上下文:这个在前一阵子聊的也比较火,主要是因为有一些技术可以在不继续训练模型的情况下让模型支持的上下文长度有显著提升。这个项目设计了一个新的方法,可以让模型最长支持到18K+上下文(其实大多数人可能用不到)
  • 当然还有一些其他优势,比如词表扩展(这一代用了经过优化的新的中文词表),提示语优化等等。

详细细节建议去看一下项目的模型简介。

模型下载

下载这个就不用细说了吧,前面已经讲到可以直接下载完整模型了。

链接:GitHub - ymcui/Chinese-LLaMA-Alpaca-2: 中文LLaMA-2 & Alpaca-2大语言模型 (Chinese LLaMA-2 & Alpaca-2 LLMs)

当然,因为完整模型比较大,如果想轻量下载的也可以下载LoRA然后自己手动合并。

对战平台

官方还弄了一个对战平台,里面是他们发布的所有对话模型。可以看到模型之间的对战结果和排名。这个系统不是实时的,是提前把多个模型在固定的集合上进行多次解码来模拟随机性,然后随机挑选两个系统对战。

这个是对战界面:

【类ChatGPT】中文LLaMA-2、Alpaca-2 二代羊驼大模型体验,chatgpt,llama,人工智能,自然语言处理

选完之后可以看到输出对应的模型名。 

【类ChatGPT】中文LLaMA-2、Alpaca-2 二代羊驼大模型体验,chatgpt,llama,人工智能,自然语言处理

这个是排行榜界面,下面还有一个动态的两两对战胜率可视化图。

【类ChatGPT】中文LLaMA-2、Alpaca-2 二代羊驼大模型体验,chatgpt,llama,人工智能,自然语言处理

可以看到Alpaca-2-7B按胜率看排在中间,按Elo评分是排名第二。右下角可以看到对战次数,总的次数还并不多,所以排名仅供参考吧。

模型到底如何,接下来进入到我最喜欢的实战环节。

效果评测

老样子,我还是用llama.cpp来测试量化后的模型(苹果M系列芯片推理速度太香了)。按照官方推荐的Q6_K量化方法对模型进行量化。因为对话模型Alpaca-2-7B需要套用新的指令模板,官方还提供一个运行脚本,我也按照官方推荐的方式进行运行。

提示:有很多小伙伴用LLaMA(或者类似Baichuan模型)去进行对话,实际这类基座模型不具备对话能力,所以还是提醒各位小伙伴用的时候要注意在对的场景下使用对的模型,否则可能会白忙活。

接下来的截图中[INST]开头的是我输入的,[/INST]是系统开始回复的。这个是Llama-2的默认模板,感兴趣的可以看看Llama-2的论文。

多轮聊天

【类ChatGPT】中文LLaMA-2、Alpaca-2 二代羊驼大模型体验,chatgpt,llama,人工智能,自然语言处理

 这个已经基本达到预期效果了,指令理解准确,且对上下文内容有一定的融合理解能力。

数学问答

【类ChatGPT】中文LLaMA-2、Alpaca-2 二代羊驼大模型体验,chatgpt,llama,人工智能,自然语言处理

【类ChatGPT】中文LLaMA-2、Alpaca-2 二代羊驼大模型体验,chatgpt,llama,人工智能,自然语言处理

这个结果相比一代的7B/13B已经好一些了,但数学能力仍然是小参数量模型的一个通病,大多数只是依靠“记忆”来回答模型,并没有太强的逻辑性。这一点之前我在评测中文Alpaca-33B的时候也有提到,大参数量的模型在数值计算方面具有显著优势。 

知识问答

【类ChatGPT】中文LLaMA-2、Alpaca-2 二代羊驼大模型体验,chatgpt,llama,人工智能,自然语言处理

这次应该是比之前的一代Alpaca-7b/13b/33b都好一些,没有奇怪的佐料了。 

写作

【类ChatGPT】中文LLaMA-2、Alpaca-2 二代羊驼大模型体验,chatgpt,llama,人工智能,自然语言处理

 很好地完成了写作和后面的改写需求,内容相比一代模型有显著提升。

代码方面

【类ChatGPT】中文LLaMA-2、Alpaca-2 二代羊驼大模型体验,chatgpt,llama,人工智能,自然语言处理

这个是GPT-4的打分:

【类ChatGPT】中文LLaMA-2、Alpaca-2 二代羊驼大模型体验,chatgpt,llama,人工智能,自然语言处理

总结

总的来说,基于Llama-2开发的中文Alpaca-2相比其一代具有更好的效果,如果你之前在使用他们的一代项目的话建议升级到二代的模型。同时也可以看到,模型仍然存在数学、代码能力短板,也是小模型存在的普遍问题。期待后续有更大版本的模型出现。

目前这些模型可以和一代的llama生态进行衔接,不过要注意不要用错指令模板,否则模型输出的内容会比较奇怪。文章来源地址https://www.toymoban.com/news/detail-654094.html

到了这里,关于【类ChatGPT】中文LLaMA-2、Alpaca-2 二代羊驼大模型体验的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 类ChatGPT模型LLaMA的解读与其微调:Alpaca-LoRA/Vicuna/BELLE/中文LLaMA/姜子牙

    近期,除了研究ChatGPT背后的各种技术细节 不断看论文(至少100篇,100篇目录见此:ChatGPT相关技术必读论文100篇),还开始研究一系列开源模型(包括各自对应的模型架构、训练方法、训练数据、本地私有化部署、硬件配置要求、微调等细节)  本文一开始是作为此文《ChatGPT技术

    2024年02月16日
    浏览(37)
  • 本地部署中文LLaMA模型实战教程,民间羊驼模型

    博文1:本地部署中文LLaMA模型实战教程,民间羊驼模型(本博客) 博文2:本地训练中文LLaMA模型实战教程,民间羊驼模型 博文3:精调训练中文LLaMA模型实战教程,民间羊驼模型 LLaMA大部分是英文语料训练的,讲中文能力很弱。如果我们想微调训练自己的LLM模型,基于一个大

    2024年02月04日
    浏览(32)
  • 精调训练中文LLaMA模型实战教程,民间羊驼模型

    博文1:本地部署中文LLaMA模型实战教程,民间羊驼模型 博文2:本地训练中文LLaMA模型实战教程,民间羊驼模型 博文3:精调训练中文LLaMA模型实战教程,民间羊驼模型(本博客) 在学习完上篇【博文2:本地训练中文LLaMA模型实战教程,民间羊驼模型】后,我们已经学会了使用

    2024年02月09日
    浏览(36)
  • 本地训练中文LLaMA模型实战教程,民间羊驼模型,24G显存盘它!

    博文1:本地部署中文LLaMA模型实战教程,民间羊驼模型 博文2:本地训练中文LLaMA模型实战教程,民间羊驼模型(本博客) 博文3:精调训练中文LLaMA模型实战教程,民间羊驼模型 在学习完上篇【1本地部署中文LLaMA模型实战教程,民间羊驼模型】后,我们已经学会了下载模型,

    2024年02月10日
    浏览(50)
  • Llama 及 中文Alpaca模型部署测试

    环境: Xeon  E5-2680v4 16C 40G RAM WinServer 2019 Standard Edition Python 3.10 依赖库: accelerate==0.18.0 anyio==3.5.0 argon2-cffi==21.3.0 argon2-cffi-bindings==21.2.0 asttokens==2.0.5 attrs==22.1.0 Babel==2.11.0 backcall==0.2.0 beautifulsoup4==4.12.2 bleach==4.1.0 brotlipy==0.7.0 certifi==2022.12.7 cffi==1.15.1 chardet==5.1.0 charset-normalizer==3.1.

    2024年02月09日
    浏览(40)
  • 中文LLaMa和Alpaca大语言模型开源方案 | 扩充中文词表 & 针对中文语料进行高效编码

    欢迎关注『CVHub』官方微信公众号! Title: Efficient and Effective Text Encoding for Chinese Llama and Alpaca PDF: https://arxiv.org/pdf/2304.08177v1.pdf Code: https://github.com/ymcui/Chinese-LLaMA-Alpaca 大型语言模型 LLM ,如ChatGPT和GPT-4,已经彻底改变了自然语言处理研究。然而, LLMs 的昂贵训练和部署对于透明

    2024年02月09日
    浏览(40)
  • 中文大模型 Chinese-LLaMA-Alpaca-2 开源且可以商用

    “  Meta 开源 LLAMA2 后,国内出现了不少以此为基座模型训练的中文模型,这次我们来看看其中一个不错的中文模型:Chinese-LLaMA-Alpaca-2 。 ” 01 — 目前在开源大模型中,比较有名的是Meta的LLAMA模型系列和清华的ChatGLM模型。 特别是在中文领域上,ChatGLM模型经过中文问答和对

    2024年02月06日
    浏览(34)
  • 类ChatGPT的部署与微调(上):LLaMA到Alpaca、Vicuna、BELLE、中文版

    近期,除了研究ChatGPT背后的各种技术细节 不断看论文(至少100篇,100篇目录见此:ChatGPT相关技术必读论文100篇),还开始研究一系列开源模型(包括各自对应的模型架构、训练方法、训练数据、本地私有化部署、硬件配置要求、微调等细节)  本文一开始是作为此文《ChatGPT技术

    2023年04月25日
    浏览(27)
  • 类ChatGPT的部署与微调(上):从LLaMA、Alpaca/Vicuna/BELLE、中文版

    近期,除了研究ChatGPT背后的各种技术细节 不断看论文(至少100篇,100篇目录见此:ChatGPT相关技术必读论文100篇),还开始研究一系列开源模型(包括各自对应的模型架构、训练方法、训练数据、本地私有化部署、硬件配置要求、微调等细节)  本文一开始是作为此文《ChatGPT技术

    2024年02月04日
    浏览(39)
  • 【个人笔记本】本地化部署详细流程 LLaMA中文模型:Chinese-LLaMA-Alpaca-2

    不推荐小白,环境配置比较复杂 下载原始模型:Chinese-LLaMA-Alpaca-2 linux部署llamacpp环境 使用llamacpp将Chinese-LLaMA-Alpaca-2模型转换为gguf模型 windows部署Text generation web UI 环境 使用Text generation web UI 加载模型并进行对话 笔记本环境: 操作系统:win11 CPU:AMD R7535HS GPU:笔记本4060显卡

    2024年02月08日
    浏览(44)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包