Vicuna-13B量化模型单GPU可跑

这篇具有很好参考价值的文章主要介绍了Vicuna-13B量化模型单GPU可跑。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

链接在这(需要科学上网)
Vicuna-13B: Best Free ChatGPT Alternative According to GPT-4 🤯 | Tutorial (GPU)

有人在B站转了人家的视频
ChatGPT:在你的本地电脑上运行Vicuna-13B 🤯|教程 (GPU)

下面就是部署的步骤,其中有一步需要科学上网

下载docker镜像

docker pull nvidia/cuda:11.7.0-cudnn8-devel-ubuntu18.04

因为他这个模型就认cuda:11.7版本,所以我用了人家官方模型。

运行docker镜像

docker run -it --name $容器的名字 --gpus all -p 3000:3000 $镜像的名字:镜像的版本号

进去之后试下

nvidia-smi

如果可以打印出GPU的情况,那就继续。

更新软件来源,初始化

apt-get update
apt-get upgrade
apt-get install wget -y
apt-get install git -y

更新一些用到的命令

装miniconda3

wget https://mirrors.ustc.edu.cn/anaconda/miniconda/Miniconda3-latest-Linux-x86_64.sh
sha256sum  Miniconda3-latest-Linux-x86_64.sh
bash Miniconda3-latest-Linux-x86_64.sh
source ~/.bashrc

下载miniconda,在容器里走个conda环境管理,省时省力

启动python环境

conda create -n vinuca python=3.9
conda activate vinuca

这里名字打错了,但我也不想改了

搭载模型

git clone https://github.com/thisserand/FastChat.git
cd FastChat
pip3 install fschat==0.1.3 -i https://pypi.tuna.tsinghua.edu.cn/simple
pip3 install -e .   (科学上网)

pip3 install -e . 这一句需要科学上网,因为有一步是pip install git+https://huggingface...,找了半天没找到不科学上网的方法。

mkdir repositories
cd repositories
git clone https://github.com/oobabooga/GPTQ-for-LLaMa -b cuda
cd GPTQ-for-LLaMa
python setup_cuda.py install

到这都蛮顺利的

cd ../..
python download-model.py anon8231489123/vicuna-13b-GPTQ-4bit-128g

然后download-model.py这一句怎么也过不去,需要改下他的原码,vim进去,照下面这样子改就行。
Vicuna-13B量化模型单GPU可跑
改完之后再执行就可以了

python download-model.py anon8231489123/vicuna-13b-GPTQ-4bit-128g

使用

这个命令是走终端聊天,你一句,电脑一句,蛮有意思,我觉得不如chatglm6B。

python -m fastchat.serve.cli --model-name anon8231489123/vicuna-13b-GPTQ-4bit-128g --wbits 4 --groupsize 128

我做好的包

docker pull hekaii/vicuna:v2

进去,激活环境,cd Fast开头文件夹,输入命令就可以了

就酱文章来源地址https://www.toymoban.com/news/detail-455862.html

到了这里,关于Vicuna-13B量化模型单GPU可跑的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 中文大语言模型 Llama-2 7B(或13B) 本地化部署 (国内云服务器、GPU单卡16GB、中文模型、WEB页面TextUI、简单入门)

            本文目的是让大家先熟悉模型的部署,简单入门;所以只需要很小的算力,单台服务器 单GPU显卡(显存不低于12GB),操作系统需要安装 Ubuntu 18.04。         准备一台服务器 单张英伟达GPU显卡(显存不低于12GB),操作系统需要安装 Ubuntu 18.04 (具体安装过程忽略)

    2024年02月08日
    浏览(37)
  • LLaMA模型微调版本 Vicuna 和 Stable Vicuna 解读

    Vicuna和StableVicuna都是LLaMA的微调版本,均遵循CC BY-NC-SA-4.0协议,性能方面Stable版本更好些。 CC BY-NC-SA-4.0是一种知识共享许可协议,其全称为\\\"署名-非商业性使用-相同方式共享 4.0 国际\\\"。 即 用的时候要署名原作者,不能商用,下游使用也必须是相同的共享原则。 Vicuna(小羊驼

    2024年02月11日
    浏览(37)
  • vicuna-13b与ChatGPT3.5对决,GPT4为裁判的80道考题,中文机翻版

    本文主要内容是vicuna-13b的原团队测试题,仅复制翻译(360Chrome翻译)了vicuna-13b与ChatGPT3.5的对比情况,原网址为:https://vicuna.lmsys.org/,原网站包含vicuna-13b分别与 Alpaca-13b, LLaMA-13b, ChatGPT3.5, Bard的对比示例,通过GPT4评分。 最近看大语言模型的相关视频、代码,实际操作测试了

    2024年02月06日
    浏览(61)
  • Vicuna- 一个类 ChatGPT开源 模型

    Meta 开源 LLaMA(大羊驼)系列模型为起点,研究人员逐渐研发出基于LLaMA的Alpaca(羊驼)、Alpaca-Lora、Luotuo(骆驼)等轻量级类 ChatGPT 模型并开源。 google提出了一个新的模型:Vicuna(小羊驼)。该模型基于LLaMA,参数量13B。Vicuna-13B 通过微调 LLaMA 实现了高性能的对话生成 Vicun

    2024年02月04日
    浏览(80)
  • LLM:Vicuna 7B模型简单部署体验

    随着ChatGPT的火热,科技公司们各显神通,针对大语言模型LLM通常需要极大的算力支持,且没有开源,阻碍了进一步的研究和应用落地。受 Meta LLaMA 和 Stanford Alpaca 项目的启发,来自加州大学伯克利分校、CMU、斯坦福大学和加州大学圣地亚哥分校的成员,共同推出了一个 Vicun

    2024年02月07日
    浏览(42)
  • LLMs之Vicuna:在Linux服务器系统上实Vicuna-7B本地化部署(基于facebookresearch的GitHub)进行模型权重合并(llama-7b模型与delta模型权重)、模型部

    LLMs之Vicuna:在Linux服务器系统上实Vicuna-7B本地化部署(基于facebookresearch的GitHub)进行模型权重合并(llama-7b模型与delta模型权重)、模型部署且实现模型推理全流程步骤的图文教程(非常详细) 导读 :因为Vicuna的训练成本很低,据说只需要$300左右,所以,还是有必要尝试本地化部署

    2024年02月06日
    浏览(44)
  • 大模型入门(一)—— LLaMa/Alpaca/Vicuna

    LLaMa模型是Meta开源的大模型,模型参数从7B到65B不等,LLaMa-7B在大多数基准测试上超过了GPT3-173B,而LLaMa-65B和Chinchilla-70B、PaLM-540B相比也极具竞争力。相比于ChatGPT或者GPT4来说,LLaMa可能效果上还有差距,但相比Closed AI,至少LLaMa论文和模型都开源出来了,目前hugging face已集成了

    2024年02月09日
    浏览(78)
  • 羊驼系列大模型LLaMa、Alpaca、Vicuna

    羊驼系列大模型:大模型的安卓系统 GPT系列:类比ios系统,不开源 LLaMa优势 用到的数据:大部分英语、西班牙语,少中文 模型下载地址 https://huggingface.co/meta-llama Alpaca是斯坦福从Meta的LLaMA 7B微调而来的全新模型 (套壳)仅用了52k数据,性能约等于GPT-3.5。 训练成本奇低,总成本

    2024年01月21日
    浏览(32)
  • LLM系列 | 02: Vicuna简介及模型部署实测

    月黑见渔灯,孤光一点萤。微微风簇浪,散作满河星。小伙伴们好,我是微信公众号《小窗幽记机器学习》的小编:卖钢丝球的小男孩。今天这篇小作文主要介绍Vicuna模型、基于官方模型13B模型部署服务及对话实测。 更多、更新文章欢迎关注 微信公众号 : 小窗幽记机器学习

    2024年02月06日
    浏览(31)
  • matlab 13折线法数据量化编码与解码

    模拟信号抽样后变成时间离散的信号,经过量化后,此抽样信号才能成为数字信号。分析可知:最简单的均匀量化器对于小输入信号很不利。为了改善小信号时的信号量噪比,在实际应用中常采用非均匀量化。 非均匀量化时,量化间隔随信号抽样值的不同而变化。信号抽样值

    2024年02月09日
    浏览(40)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包