LLM:Vicuna 7B模型简单部署体验

这篇具有很好参考价值的文章主要介绍了LLM:Vicuna 7B模型简单部署体验。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

0、引入

随着ChatGPT的火热,科技公司们各显神通,针对大语言模型LLM通常需要极大的算力支持,且没有开源,阻碍了进一步的研究和应用落地。受 Meta LLaMA 和 Stanford Alpaca 项目的启发,来自加州大学伯克利分校、CMU、斯坦福大学和加州大学圣地亚哥分校的成员,共同推出了一个 Vicuna-13B 开源大模型。

根据论文显示,其Vicuna-13B可以达到ChatGPT/Bard 90%以上水平,并且开源,并且Vicuna-7B模型可以在单卡上面运行(github说7B需要16GB的现存,亲测在3090上面可以运行,速度挺快)。

目前Vicuna开源了模型权重以供大家进行研究和微调,本文受限于算力仅尝试运行7B模型。

本文大概的流程是:首先将权重文件保存到阿里云盘中(12GB),然后在autodl云服务器中开一台3090,使用autodl提供的离线下载将阿里云盘的权重下载到3090中,然后下载Vicuna的代码进行编译安装,就可以执行测试了。

章节1-5为具体部署方法,如果觉得太麻烦,可以直接看章节6:直接使用我的镜像立即开启人机对话,通过加载镜像后两行代码就可以开启对话

1、保存权重文件到阿里云盘

官方没有直接放出权重文件,而是需要通过增量和LLM自己进行转换,转换7B的权重需要30GB的RAM才可以。所以这里直接分享转换后的权重下载即可。

vicuna-7b-小羊驼 点击链接保存到自己云盘(note:不需要下载)

2、部署环境

Vicuna最小的7B模型也需要14GB的显存,(穷,没有)所以使用autodl租一台3090,也便宜一般1~1.5一小时。选择一台3090,它拥有24GB显存,运行7B模型已经够了。

在创建时选择框架:Pytorch1.10+Py3.8+CUDA11.3
LLM:Vicuna 7B模型简单部署体验

3、上传权重文件到3090

该部分在autodl的帮助下,将阿里云盘权重直接下载到3090,不需要经过本机下载再上传。

当我们开启一台机器后可以看到下面的信息
LLM:Vicuna 7B模型简单部署体验
点击“AutoPanel”进入面板,选择“公网网盘”,此时选择阿里云盘并扫码登录,就可以看到你的文件了。

找到vicuna-7b文件夹(里面就是相关权重文件),点击下载。
LLM:Vicuna 7B模型简单部署体验

下载完成后,该模型权重就在我们3090的/root/autodl-tmp/里了,一会儿就可以直接使用。
权重文件较大,传输比较耗时,你可以点击右上角的传输任务查看进度。
LLM:Vicuna 7B模型简单部署体验

4、下载安装源码

4.1 下载编译安装源码

首先从 v0.1.10下载“Dource code(zip)”并上传。如下如所示在1标记处可以上传文件,基本的上传进度条完成后可以在左侧看到FashChat-0.1.10.zip

然后,点击“终端”打开终端,使用命令"unzip FastChat-0.1.10.zip -d ./"进行解压,成功后可以看到FastChat-0.1.10文件夹

note:不要去主页下最新版,最新版与本文的权重不符,会有小bug。
LLM:Vicuna 7B模型简单部署体验

4.2 安装

首先在终端进入文件夹:cd FastChat-0.1.10
LLM:Vicuna 7B模型简单部署体验
为了方便访问从github下载,请根据自己机器的区域设置代理AutoDL帮助文档
比如我的是毕业季A去所以执行:
export http_proxy=http://10.0.0.7:12798 && export https_proxy=http://10.0.0.7:12798
LLM:Vicuna 7B模型简单部署体验

然后依次执行:
sudo pip3 install --upgrade pip
sudo pip3 install -e .

至此一切就绪!

5、开始使用

一些配置好后,在终端中执行使用命令:
python3 -m fastchat.serve.cli --model-path ~/autodl-tmp/vicuna-7b/
等待加载chckpoint完成后,就会有提示符“Human:”就可以进行人机对话了
LLM:Vicuna 7B模型简单部署体验

6、直接使用我的镜像立即开启人机对话

如果觉得上面的步骤太麻烦,使用我制作好的镜像,直接输入命令就可开启对话。

首先你需要获取我准备好的镜像,受限于autodl镜像分享只能通过指定id的方式,你可以在评论区留下你的autodl的ID,我分享给你。

你的id在这里查看:
LLM:Vicuna 7B模型简单部署体验
假设你已经有了镜像,然后去租一台3090,在控制台将3090关机,从“更多”中选择“更换镜像”,选中我分享的镜像,等待重置完成。

开机后,一次执行:
cd FastChat-0.1.10
python3 -m fastchat.serve.cli --model-path vicuna-7b/
LLM:Vicuna 7B模型简单部署体验
就可以开启对话了

Debug:可能的报错

LLM:Vicuna 7B模型简单部署体验
上次执行使用命令占用的显存没有释放,只需要如下图关闭该终端,然后新开终端进入FastChat文件夹后再使用执行命令即可再次对话
LLM:Vicuna 7B模型简单部署体验文章来源地址https://www.toymoban.com/news/detail-466973.html

到了这里,关于LLM:Vicuna 7B模型简单部署体验的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • Fastchat实战部署vicuna-7b-v1.3(小羊驼)

    FastChat 是一个开放平台,用于训练、服务和评估基于大型语言模型的聊天机器人。核心功能包括: 最先进模型(例如,Vicuna)的权重、训练代码和评估代码。 具有 Web UI 和 OpenAI 兼容 RESTful API 的分布式多模型服务系统。 Fastchat项目持续更新中,后续还未跟进,有兴趣请参看项

    2024年02月08日
    浏览(35)
  • 无需GPU无需网络“本地部署chatGPT”(更新vicuna模型)

    想当初图像生成从DELL到stable diffusion再到苹果的移动部署过了两三年吧 聊天bot才发展几个月就可以边缘部署了,如果苹果更新silicon,npu和运存翻倍,争取apple watch也能本地内置,最快ios18 mac、ipad、iPhone能内置吧 又是一个平民百姓都高兴的开源项目,chatGPT这种级别的模型甚至

    2023年04月24日
    浏览(54)
  • LLM - Chinese-Llama-2-7b 初体验

    目录 一.引言 二.模型下载 三.快速测试 四.训练数据 五.总结 自打 LLama-2 发布后就一直在等大佬们发布 LLama-2 的适配中文版,也是这几天蹲到了一版由 LinkSoul 发布的 Chinese-Llama-2-7b,其共发布了一个常规版本和一个 4-bit 的量化版本,今天我们主要体验下 Llama-2 的中文逻辑顺便

    2024年02月15日
    浏览(32)
  • 电脑部署本地类似ChatGPT3.5的AI模型Vicuna的常见错误和原因

    1.msvcp140.dll丢失的解决方方法 进入电脑的程序和功能只要是像下面图片的全部点击修复或者重新安装再或者从网上下载缺少的vc运行库文件放进自己的 C:WindowsSystem里, 您的系统是64位的请将文源件复制到 C:WindowsSysWOW64 目录。  2.由于llama运行旧的模型需要的版本和llama的版

    2024年02月10日
    浏览(36)
  • ChatGPT论文:大语言模型LLM之战:Dolly、LLaMA 、Vicuna、Guanaco、Bard、ChatGPT--在自然语言转SQL(NL2SQL、Text-to-SQL)的比较(一)

    ChatGPT的成功引发了一场AI竞赛,研究人员致力于开发新的大型语言模型(LLMs),以匹敌或超越商业模型的语言理解和生成能力。近期,许多声称其性能接近GPT-3.5或GPT-4的模型通过各种指令调优方法出现了。作为文本到SQL解析的从业者,我们感谢他们对开源研究的宝贵贡献。然

    2024年02月02日
    浏览(42)
  • LLM__llama-7B模型试验

    llama模型已经开源很久了,所以拿做小的模型做了个简单尝试 因为做简单尝试并不打算长期持有,所以以便宜、够用、好退货为主要参考依据购买阿里云服务器、 我看7B的模型权重大小就13GB,所以先购入一个 32GB内存的虚拟机 CPU内存: 4核(vCPU) 32 GiB ~ 操作系统: Alibaba Cloud Lin

    2024年02月09日
    浏览(41)
  • 试运行llama-7B、vicuna-7b-delta-v1.1和vicuna-7b-v1.3

    Chatgpt的出现给NLP领域带来了让人振奋的消息,可以很逼真的模拟人的对话,回答人们提出的问题,不过Chatgpt参数量,规模,训练代价都很昂贵。 幸运的是,出现了开源的一些相对小的模型,可以在本地或者云端部署体验, 动手体验了下Vicuna-7b,翻译过来是小羊驼」(骆马)

    2024年02月13日
    浏览(41)
  • Llama-7b-hf和vicuna-7b-delta-v0合并成vicuna-7b-v0

    最近使用pandagpt需要vicuna-7b-v0,重新过了一遍,前段时间部署了vicuna-7b-v3,还是有不少差别的,transforms和fastchat版本更新导致许多地方不匹配,出现很多错误,记录一下。 更多相关内容可见Fastchat实战部署vicuna-7b-v1.3(小羊驼)_Spielberg_1的博客-CSDN博客 一、配置环境 切换到f

    2024年02月09日
    浏览(38)
  • 中文大语言模型 Llama-2 7B(或13B) 本地化部署 (国内云服务器、GPU单卡16GB、中文模型、WEB页面TextUI、简单入门)

            本文目的是让大家先熟悉模型的部署,简单入门;所以只需要很小的算力,单台服务器 单GPU显卡(显存不低于12GB),操作系统需要安装 Ubuntu 18.04。         准备一台服务器 单张英伟达GPU显卡(显存不低于12GB),操作系统需要安装 Ubuntu 18.04 (具体安装过程忽略)

    2024年02月08日
    浏览(45)
  • Vicuna- 一个类 ChatGPT开源 模型

    Meta 开源 LLaMA(大羊驼)系列模型为起点,研究人员逐渐研发出基于LLaMA的Alpaca(羊驼)、Alpaca-Lora、Luotuo(骆驼)等轻量级类 ChatGPT 模型并开源。 google提出了一个新的模型:Vicuna(小羊驼)。该模型基于LLaMA,参数量13B。Vicuna-13B 通过微调 LLaMA 实现了高性能的对话生成 Vicun

    2024年02月04日
    浏览(90)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包