【类ChatGPT】中文羊驼大模型Alpaca-13B体验

这篇具有很好参考价值的文章主要介绍了【类ChatGPT】中文羊驼大模型Alpaca-13B体验。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

书接上回:https://blog.csdn.net/nlpstarter/article/details/129834424推荐一个在本地部署中文类ChatGPT大模型的开源项目https://blog.csdn.net/nlpstarter/article/details/129834424

之前在推荐了一个中文类ChatGPT的大模型,感兴趣的可以看一下上面的链接。今天看到最新推出了13B版本的模型,迫不及待下载体验了。再贴一下项目地址:

项目名称:中文LLaMA&Alpaca大语言模型+本地部署 (Chinese LLaMA & Alpaca LLMs)
项目地址:GitHub - ymcui/Chinese-LLaMA-Alpaca: 中文LLaMA&Alpaca大语言模型+本地部署 (Chinese LLaMA & Alpaca LLMs)

根据官方的发布文档说明,本次主要更新了以下内容:

  1. 重磅更新了13B版本的LLaMA和Alpaca模型,其中Alpaca模型是类ChatGPT的交互模型
  2. 官方进一步细化了评测方法,以GPT-4作为评分员,对7B版本和13B版本进行了效果对比,最后7B版本总平均分是49分,13B版本是71分,看起来提升还是很大的。
  3. 另外官方还提供了谷歌colab的在线转换脚本,方便低资源用户进行模型转换

获取和转换模型的步骤和之前完全一致,这里就不详细说了,还是进入到大家最关心的测试环节!

顺便插播一句:13B版本肯定是要比7B慢一些的,但是几乎不会有太大的体感,量化模型的整体输出还是非常顺畅的,没有什么卡壳的情况。

还是问一下关于温室效应的问题

和7B一样,答的还是很切题的,甚至可以在聊几轮过后让它写一个小作文。

【类ChatGPT】中文羊驼大模型Alpaca-13B体验

数学问题:骑7个猴

这道题上次答的不尽人意,这次也是一样。说明目前的训练数据以及模型规模不足以让模型能够很好的掌握数学运算和推理问题。

【类ChatGPT】中文羊驼大模型Alpaca-13B体验

如何制作宫保鸡丁?

这道题上次答的还行,不过整体上看起来并不像是在做宫保鸡丁。这回似乎也不是很好,材料里有猪肉。

【类ChatGPT】中文羊驼大模型Alpaca-13B体验

写一封信

上一次的信写的还是可以的,这回我增加了难度。可以看出

  1. 信件的内容更加丰富了
  2. 令我惊讶的是,居然可以让他按照我的要求重新改一份,而且是由针对性的修改。为什么觉得惊讶呢,是因为官方并没有使用多轮的数据,不知道是因为LLaMA模型自带的上下文理解能力还是其他的一些magic。
  3. 整体的上下文理解比7B更加准确,对细节把控的更好

【类ChatGPT】中文羊驼大模型Alpaca-13B体验

文学方面

官方这次给出了10大类的任务评测。里面包含一个文学方面的内容,我也试着进行了一些提问。可以看出事实性非常好,而且能够联系上下文进行简要的剖析。

【类ChatGPT】中文羊驼大模型Alpaca-13B体验

我用GPT-4给上面的对话进行了打分,可以看出GPT-4对这段对话很满意,对四段对话都给出了9/10的高分。 

【类ChatGPT】中文羊驼大模型Alpaca-13B体验

情感方面

虽然官方没有评测这个类别,我觉得还是可以评一下的,看看机器有没有共情能力。从以下的截图中可以看出,机器还是提供了一些情感建议的,点赞。

【类ChatGPT】中文羊驼大模型Alpaca-13B体验

角色扮演

官方也没有评测这个类别,我也试试。看似是有一些模仿能力,但是中间夹杂着一些奇怪的emoji符号,看样子是训练数据里没有类似的数据供拟合。 

【类ChatGPT】中文羊驼大模型Alpaca-13B体验

总结

可以看到13B在事实性方面,上下文理解方面得到了进一步的进化,在书信、写作等长文本能力上也得到了很大的进步。但是也能看到目前模型在数值推理等场景还是做的很差。这部分能力似乎是各种任务里比较困难的部分了,光靠简单的精调数据去拟合应该是远远不够的。不过,考虑到目前的模型量级以及训练数据量来看还是可以的。期待未来更多更好的模型出现。文章来源地址https://www.toymoban.com/news/detail-458759.html

到了这里,关于【类ChatGPT】中文羊驼大模型Alpaca-13B体验的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • Alpaca-cpp(羊驼-cpp): 可以本地运行的 Alpaca 大语言模型

    Stanford Alpaca (羊驼):ChatGPT 学术版开源实现 Alpaca-Lora (羊驼-Lora): 轻量级 ChatGPT 的开源实现(对标 Standford Alpaca) I know。这几天介绍了很多 Alpaca,各种羊驼,似乎有些随心所欲、杂乱无章。但实际上,正如《寒战》中梁家辉饰演的李文斌被廉政公署问话时所说:“要在(每一个

    2023年04月24日
    浏览(46)
  • 斯坦福用几百块钱训练的alpaca,体验一下基于llama的7b和13b模型,据说比gpt3.0还牛,结果怎样??你能信?

    好久没写代码了,上头了,强撸了! 1、自己买个GPU服务器(如果不训练,可以随便买个高内存的即可),有些网站很便宜,小时起租! 2、alpaca和模型下载地址:GitHub - antimatter15/alpaca.cpp: Locally run an Instruction-Tuned Chat-Style LLM git clone GitHub - antimatter15/alpaca.cpp: Locally run an Instr

    2024年02月04日
    浏览(35)
  • 类ChatGPT模型LLaMA的解读与其微调:Alpaca-LoRA/Vicuna/BELLE/中文LLaMA/姜子牙

    近期,除了研究ChatGPT背后的各种技术细节 不断看论文(至少100篇,100篇目录见此:ChatGPT相关技术必读论文100篇),还开始研究一系列开源模型(包括各自对应的模型架构、训练方法、训练数据、本地私有化部署、硬件配置要求、微调等细节)  本文一开始是作为此文《ChatGPT技术

    2024年02月16日
    浏览(41)
  • 体验讯飞星火认知大模型,据说中文能力超越ChatGPT

    💖 作者简介:大家好,我是阿牛,全栈领域优质创作者。😜 📝 个人主页:馆主阿牛🔥 🎉 支持我:点赞👍+收藏⭐️+留言📝 💬格言:迄今所有人生都大写着失败,但不妨碍我继续向前!🔥 5月6号,科大讯飞发布了讯飞星火认知大模型,据传是国产最强AI,讯飞董事长在

    2024年02月04日
    浏览(38)
  • 本地部署中文LLaMA模型实战教程,民间羊驼模型

    博文1:本地部署中文LLaMA模型实战教程,民间羊驼模型(本博客) 博文2:本地训练中文LLaMA模型实战教程,民间羊驼模型 博文3:精调训练中文LLaMA模型实战教程,民间羊驼模型 LLaMA大部分是英文语料训练的,讲中文能力很弱。如果我们想微调训练自己的LLM模型,基于一个大

    2024年02月04日
    浏览(33)
  • 精调训练中文LLaMA模型实战教程,民间羊驼模型

    博文1:本地部署中文LLaMA模型实战教程,民间羊驼模型 博文2:本地训练中文LLaMA模型实战教程,民间羊驼模型 博文3:精调训练中文LLaMA模型实战教程,民间羊驼模型(本博客) 在学习完上篇【博文2:本地训练中文LLaMA模型实战教程,民间羊驼模型】后,我们已经学会了使用

    2024年02月09日
    浏览(39)
  • 本地训练中文LLaMA模型实战教程,民间羊驼模型,24G显存盘它!

    博文1:本地部署中文LLaMA模型实战教程,民间羊驼模型 博文2:本地训练中文LLaMA模型实战教程,民间羊驼模型(本博客) 博文3:精调训练中文LLaMA模型实战教程,民间羊驼模型 在学习完上篇【1本地部署中文LLaMA模型实战教程,民间羊驼模型】后,我们已经学会了下载模型,

    2024年02月10日
    浏览(53)
  • Llama 及 中文Alpaca模型部署测试

    环境: Xeon  E5-2680v4 16C 40G RAM WinServer 2019 Standard Edition Python 3.10 依赖库: accelerate==0.18.0 anyio==3.5.0 argon2-cffi==21.3.0 argon2-cffi-bindings==21.2.0 asttokens==2.0.5 attrs==22.1.0 Babel==2.11.0 backcall==0.2.0 beautifulsoup4==4.12.2 bleach==4.1.0 brotlipy==0.7.0 certifi==2022.12.7 cffi==1.15.1 chardet==5.1.0 charset-normalizer==3.1.

    2024年02月09日
    浏览(42)
  • 【LLM】Windows本地CPU部署民间版中文羊驼模型踩坑记录

    目录 前言 准备工作 Git  Python3.9  Cmake 下载模型  合并模型 部署模型  想必有小伙伴也想跟我一样体验下部署大语言模型, 但碍于经济实力, 不过民间上出现了大量的量化模型, 我们平民也能体验体验啦~, 该模型可以在笔记本电脑上部署, 确保你电脑至少有16G运行内存 开原地址

    2023年04月27日
    浏览(40)
  • 中文LLaMa和Alpaca大语言模型开源方案 | 扩充中文词表 & 针对中文语料进行高效编码

    欢迎关注『CVHub』官方微信公众号! Title: Efficient and Effective Text Encoding for Chinese Llama and Alpaca PDF: https://arxiv.org/pdf/2304.08177v1.pdf Code: https://github.com/ymcui/Chinese-LLaMA-Alpaca 大型语言模型 LLM ,如ChatGPT和GPT-4,已经彻底改变了自然语言处理研究。然而, LLMs 的昂贵训练和部署对于透明

    2024年02月09日
    浏览(41)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包