开源模型:小羊驼(Vicuna-13B),可达chatGPT九成效果。

这篇具有很好参考价值的文章主要介绍了开源模型:小羊驼(Vicuna-13B),可达chatGPT九成效果。。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

参考链接:https://mp.weixin.qq.com/s/OK5NLLVSBLb-4QsnqGp45g


简要介绍

以 Meta 开源 LLaMA(直译为「大羊驼」)系列模型为起点,研究人员逐渐研发出基于LLaMA的Alpaca(羊驼)、Alpaca-Lora、Luotuo(骆驼)等轻量级类 ChatGPT 模型并开源。

近日,研究者们又提出了一个新的模型:Vicuna(小羊驼)。该模型基于LLaMA,参数量13B。Vicuna-13B 就是通过微调 LLaMA 实现了高性能的对话生成

有趣的是,在该模型的评测环节中,作者没有通过某种“标准化考试”来测定模型性能,而是让GPT-4当考官,看看 GPT-4 更倾向于 Vicuna-13B 还是其他基线模型的答案。结果显示,相比于现有的 SOTA 开源模型(LLaMA、Alpaca),GPT-4 在超过 90% 的问题中更倾向于 Vicuna,并且 Vicuna 在总分上达到了 ChatGPT 的 92%。

Vicuna(小羊驼)已开源,项目地址:https://github.com/lm-sys/FastChat
demo 地址:https://chat.lmsys.org/


PS:浅浅玩了一下。总结:虽然没有chatGPT厉害,但是也不能算差了吧!而且开源是真香:)
开源模型:小羊驼(Vicuna-13B),可达chatGPT九成效果。
开源模型:小羊驼(Vicuna-13B),可达chatGPT九成效果。

开源模型:小羊驼(Vicuna-13B),可达chatGPT九成效果。

模型介绍

数据来源

Vicuna 使用从 ShareGPT 收集的用户共享数据对 LLaMA 模型进行微调。从 ShareGPT 收集了大约 7 万个对话。ShareGPT 是一个 ChatGPT 数据共享网站,用户会上传自己觉得有趣的 ChatGPT 回答。

开源模型:小羊驼(Vicuna-13B),可达chatGPT九成效果。

模型评估方法

该研究创建了 80 个不同的问题,并利用 GPT-4 来初步评估模型的输出质量,其中将每个模型的输出组合成每个问题的单个 prompt。然后将 prompt 发送到 GPT-4,由 GPT-4 来根据有用性、相关性、准确性和细节来评估上述模型生成的答案质量。

开源模型:小羊驼(Vicuna-13B),可达chatGPT九成效果。
下面是小羊驼-13B和其他模型的一些比较:
开源模型:小羊驼(Vicuna-13B),可达chatGPT九成效果。

模型局限性

不擅长推理或数学任务,还有在输出信息的准确性和偏见等方面存在缺陷。

模型总体评价

作为一个开源模型,性能总体上可以达到 ChatGPT 的 90%,已经非常难得,并且成本较低,只需 300 美元。文章来源地址https://www.toymoban.com/news/detail-422728.html

到了这里,关于开源模型:小羊驼(Vicuna-13B),可达chatGPT九成效果。的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • centos7系统安装Vicuna(小羊驼)聊天机器人

    准备工作: 安装vicuna之前需要做一些准备工作,比如:git、python3、升级openssl等 1、Git安装 因为要克隆项目源码所以要安装,安装过程很简单yum install git,这里不做过多介绍。如果不安装git也可以,项目源码可以去官网直接下载zip包。 2、升级openssl 为什么要先升级openssl?因为

    2024年02月10日
    浏览(51)
  • Fastchat安装vicuna-7b-v1.3(小羊驼) ——超详细版

    FastChat 是一个开放平台,用于训练、服务和评估基于大型语言模型的聊天机器人。核心功能包括: 最先进模型(例如,Vicuna)的权重、训练代码和评估代码。 具有 Web UI 和 OpenAI 兼容 RESTful API 的分布式多模型服务系统。 Fastchat项目持续更新中,后续还未跟进,有兴趣请参看项

    2024年02月05日
    浏览(40)
  • TinyLlama-1.1B(小羊驼)模型开源-Github高星项目分享

    简介 TinyLlama项目旨在在3万亿tokens上进行预训练,构建一个拥有11亿参数的Llama模型。经过精心优化,我们\\\"仅\\\"需16块A100-40G的GPU,便可在90天内完成这个任务🚀🚀。训练已于2023-09-01开始。 项目地址: https://github.com/jzhang38/TinyLlama/ 特点 采用了与Llama 2完全相同的架构和分词器。

    2024年02月01日
    浏览(35)
  • Vicuna-13B量化模型单GPU可跑

    链接在这(需要科学上网) Vicuna-13B: Best Free ChatGPT Alternative According to GPT-4 🤯 | Tutorial (GPU) 有人在B站转了人家的视频 ChatGPT:在你的本地电脑上运行Vicuna-13B 🤯|教程 (GPU) 下面就是部署的步骤,其中有一步需要科学上网 因为他这个模型就认cuda:11.7版本,所以我用了人家官方模

    2024年02月06日
    浏览(77)
  • 使用llama.cpp在本地搭建vicuna 13B语言模型

    有人做了windows下的脚本放到github上了,直接运行就可以了。我在本机试了一下13B的模型能运行,但生成速度非常慢,回复一个问题基本上要花5分钟以上的时间。我的机器配置 3900X 32G内存。 https://github.com/mps256/vicuna.ps1

    2024年02月11日
    浏览(56)
  • 大模型也内卷,Vicuna训练及推理指南,效果碾压斯坦福羊驼

    2023开年以来,大模型进入疯狂内卷状态,大模型的发布都要以“天”为单位进行迭代。 之前,尝试了 从0到1复现斯坦福羊驼(Stanford Alpaca 7B) ,下面我们来尝试从0到1复现Vicuna训练及推理。 继斯坦福羊驼(Stanford Alpaca)之后,UC伯克利、CMU、斯坦福等机构的学者,联手发布

    2024年02月08日
    浏览(50)
  • vicuna-13b与ChatGPT3.5对决,GPT4为裁判的80道考题,中文机翻版

    本文主要内容是vicuna-13b的原团队测试题,仅复制翻译(360Chrome翻译)了vicuna-13b与ChatGPT3.5的对比情况,原网址为:https://vicuna.lmsys.org/,原网站包含vicuna-13b分别与 Alpaca-13b, LLaMA-13b, ChatGPT3.5, Bard的对比示例,通过GPT4评分。 最近看大语言模型的相关视频、代码,实际操作测试了

    2024年02月06日
    浏览(74)
  • Vicuna:斯坦福开源一个性能相当于90%ChatGPT的聊天机器人

    自从Meta公司发布LLaMA以来,围绕它微调和开发的模型越来越多,这得益于它的性能和效果,2023年3月份发布的草泥马(Alpaca)是由Meta的LLaMA 7B微调而来的全新模型,仅用了52k数据,性能约等于GPT-3.5。斯坦福发布了一个由LLaMA 7B微调的模型Alpaca(羊驼),训练3小时,性能比肩

    2024年02月10日
    浏览(45)
  • 无需GPU无需网络“本地部署chatGPT”(更新vicuna模型)

    想当初图像生成从DELL到stable diffusion再到苹果的移动部署过了两三年吧 聊天bot才发展几个月就可以边缘部署了,如果苹果更新silicon,npu和运存翻倍,争取apple watch也能本地内置,最快ios18 mac、ipad、iPhone能内置吧 又是一个平民百姓都高兴的开源项目,chatGPT这种级别的模型甚至

    2023年04月24日
    浏览(57)
  • 电脑部署本地类似ChatGPT3.5的AI模型Vicuna的常见错误和原因

    1.msvcp140.dll丢失的解决方方法 进入电脑的程序和功能只要是像下面图片的全部点击修复或者重新安装再或者从网上下载缺少的vc运行库文件放进自己的 C:WindowsSystem里, 您的系统是64位的请将文源件复制到 C:WindowsSysWOW64 目录。  2.由于llama运行旧的模型需要的版本和llama的版

    2024年02月10日
    浏览(39)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包