Ubuntu llama 2搭建及部署,同时附问题与解决方案

这篇具有很好参考价值的文章主要介绍了Ubuntu llama 2搭建及部署,同时附问题与解决方案。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

本机环境:

AMD Ryzen7480 OH with Radeon Graphics(16 CPUs),~2.9GHz
Card name: NVIDIA GeForce RTX 2060

虚拟机环境:

内存:4G
存储:100G

一、搭建部署llama 2 :

1.首先进入github 获取模型 https://github.com/facebookresearch/llama

镜像地址:git clone https://hub.fastgit.xyz/facebookresearch/llama.git
Ubuntu llama 2搭建及部署,同时附问题与解决方案,ubuntu,llama,linux

2.获取下载地址

![[Pasted image 20230803191542.png]]
Ubuntu llama 2搭建及部署,同时附问题与解决方案,ubuntu,llama,linux

3.填写注册信息(很快就发到邮箱)

![[Pasted image 20230803191612.png]]
Ubuntu llama 2搭建及部署,同时附问题与解决方案,ubuntu,llama,linux

4. 获取注册信息,从https:// 到最后

![[Pasted image 20230808092152.png]]
Ubuntu llama 2搭建及部署,同时附问题与解决方案,ubuntu,llama,linux

4.1 7b 13b 70b 三种模型

7b就是有70亿参数,文件夹里面有3个文件
由于虚拟机储存空间小,仅下载7b模型。

5.下载模型

在刚才https://github.com/facebookresearch/llama 下载的文件夹下
5.1安装python依赖
pip install -e .
5.2执行脚本
  执行download.sh
  注意要把刚刚复制的url贴上去  ,要全粘贴
5.3 选择自己的模型,这里选择7B

二、转换模型

官方指南为我们提供了两种部署方式——transformers和oobabooga的text-generation-webui,因为我们是要实际进行部署,就需要选择text-generation-webui。如果有稍微留意一下模型格式,我们可以发现刚刚下载的模型是.pth格式,通常由PyTorch生成,但是text-generation-webui默认使用的是huggingface格式的模型,因此我们需要进行一次转换操作。https://github.com/huggingface/transformers.git 克隆到本地,脚本文件的路径是:src/transformers/models/llama/convert_llama_weights_to_hf.py。
在转换之前,我们需要进行一个操作,以使模型能够按照脚本预设的目录运行。对于使用过上一代模型的读者可能已经了解,LLama提供了7b、13b、30b、65b四种不同规模的模型,因此要使用第一代LLama的转换脚本,我们需要将下载的模型名称更改为这些名称,以便脚本能正确识别。例如,如果我使用的是7b-chat模型,那么我需要将7b-chat文件夹重命名为7B。总的来说,如果模型是7b-chat或7b则需要改名为7B,如果模型是13b-chat或13b则需要改名为13B,但对于70b的模型,我并不确定其参数是否能匹配65b的,如果你有能力运行的话,可以试一下。
现在的transformers还是不太理想,在安装过程中还是存在问题。

三,使用模型

第一种方法:webUI

搭建text-generation-webui
text-generation-webui是github上的一个开源项目,也是目前运行开源模型最广泛使用的软件之一。如果你之前用过第一代LLama,应该对这个项目比较熟悉。
text-generation-webui的安装方式相当简单,同样需要从github上克隆项目:https://github.com/oobabooga/text-generation-webui/。克隆完成后,我们把刚才转换好的huggingface格式的模型文件夹整个放入models中,目录结构如下:
我们将刚才生成好huggingface格式的模型文件夹整个放入models中,文件结构如下图:其中llama-2-7b-chat是我在上一步output_dir中指定的huggingface输出文件夹。
现在我们运行text-generation-webui就可以和llama2模型对话了,具体的命令如下:
在text-generation-webui目录下
python server.py --model [output_dir中指定的huggingface输出文件夹名字] --api --listen

关于欠缺的package :llama,[GitHub - abetlen/llama-cpp-python: Python bindings for llama.cpp](https://github.com/abetlen/llama-cpp-python#installation-from-pypi-recommended)在GitHub中 选择-python的版本

sudo python3 server.py --model /home/will/llama/text-generation-webui/models/7B --api --listen

Starting streaming server at ws://0.0.0.0:5005/api/v1/stream
Starting API at http://0.0.0.0:5000/api
Running on local URL: http://0.0.0.0:7860

To create a public link, set share=True in launch().
![[Pasted image 20230804162125.png]]`
Ubuntu llama 2搭建及部署,同时附问题与解决方案,ubuntu,llama,linux

退出使用 ctrl+c即可

第二种方法使用:llama.cpp

执行命令 git clone https://github.com/ggerganov/llama.cpp.git
在里面make -j (参数加快编译效率)
%%
这里需要注意没进行模型下载,使用附++的网站进行下载,直接黏贴即可

安装python依赖 文件夹里有requirements.txt 安装指定版本
先在models文件夹里面创建7B的文件夹
再拷贝模型文件
使用python3 convert.py models/7B/
将7B模型转换为ggml FP32格式
将模型量化为 4 位(使用 q4_0 方法)
./quantize ./models/7B/ggml-model-f32.bin ./models/7B/ggml-model-q4_0.bin q4_0
%%
最后就可以推理了
bash ./examples/chat.sh
退出同样使用ctrl+c即可

四、结果演示

Ubuntu llama 2搭建及部署,同时附问题与解决方案,ubuntu,llama,linuxUbuntu llama 2搭建及部署,同时附问题与解决方案,ubuntu,llama,linux

![[Pasted image 20230803193722.png]]![[Pasted image 20230803193730.png]]
![Ubuntu llama 2搭建及部署,同时附问题与解决方案,ubuntu,llama,linux
]

五、分发模型

YourChat.app - Chat with Your AI
![[Pasted image 20230804164013.png]]
Ubuntu llama 2搭建及部署,同时附问题与解决方案,ubuntu,llama,linux

按照操作执行即可。
测试,
![[Pasted image 20230804164508.png]]Ubuntu llama 2搭建及部署,同时附问题与解决方案,ubuntu,llama,linux

附++:

在模型转换期间,转换的结果总是失败。
在此基础上,使用[TheBloke/Llama-2-7B-Chat-GGML · Hugging Face](https://huggingface.co/TheBloke/Llama-2-7B-Chat-GGML

Hugging face 起初是一家总部位于纽约的聊天机器人初创服务商,他们本来打算创业做聊天机器人,然后在github上开源了一个Transformers库,虽然聊天机器人业务没搞起来,但是他们的这个库在机器学习社区迅速大火起来。目前已经共享了超100,000个预训练模型,10,000个数据集,变成了机器学习界的github。

我们在网站也是需要登陆的1~2即可通过(这里使用gogle邮箱)。
申请通过的邮件
![[Pasted image 20230808093919.png]]Ubuntu llama 2搭建及部署,同时附问题与解决方案,ubuntu,llama,linux

搜索llama 2 模型,即可。选择Llama-2-7B-Chat-GGML。这里选择了一个小模型(存储不够)。
转到files and verious进行下载。
![[Pasted image 20230808093954.png]]Ubuntu llama 2搭建及部署,同时附问题与解决方案,ubuntu,llama,linux

任选一种即可,此处选择[llama-2-7b-chat.ggmlv3.q2_K.bin]
![[Pasted image 20230808094033.png]]Ubuntu llama 2搭建及部署,同时附问题与解决方案,ubuntu,llama,linux

下载后 传输至模型存放目录,转到三、使用模型。文章来源地址https://www.toymoban.com/news/detail-682735.html

到了这里,关于Ubuntu llama 2搭建及部署,同时附问题与解决方案的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • Ubuntu 使用VNCserver远程连接灰屏问题的解决方案

    问题: Ubuntu需要使用VNCserver服务提供远程桌面,使用TightVNC Viewer远程连接主机,发现只能出现三个正常显示的桌面,继续开更多的桌面,就会发现新开的窗口都是灰色的,没有任何的桌面图标或者终端窗口显示。 解决办法: 修改配置文件  ~/.vnc/xstartup 修改配置文件前,需要

    2024年02月16日
    浏览(50)
  • tomcat部署应用页面乱码问题解决方案

    参考:(129条消息) java jvm字符集 设置_windows/tomcat 修改java虚拟机JVM以utf-8字符集加载class文件的两种方式..._Lemaden的博客-CSDN博客 1、应用部署tomcat启动之后,页面显示乱码,解决方案 设置环境变量: 我的电脑 - 右键:属性 - 高级系统设置 - 环境变量 - 系统变量:新建(W) 变量名

    2024年02月10日
    浏览(67)
  • ELK常见部署架构以及出现的问题及解决方案

    ELK 已经成为目前最流行的集中式日志解决方案,它主要是由 Beats 、 Logstash 、 Elasticsearch 、 Kibana 等组件组成,来共同完成实时日志的收集,存储,展示等一站式的解决方案。本文将会介绍ELK常见的架 构以及相关问题解决。 Filebeat :Filebeat是一款轻量级,占用服务资源非常少

    2024年02月13日
    浏览(42)
  • Ubuntu服务器安装Nvidia显卡驱动各类失败问题的解决方案集合

    给实验室服务器安装显卡驱动,总是遇到各种各样的问题。故而专门开一个文章记录一下遇到的各类问题。 在这里安装CUDA,选择最新版本后根据系统配置点选即可,会自动生成对应的链接,如下图。这里选runfile,里面打包好了所需的软件。直接装CUDA一是实验室跑AI算法需要

    2024年02月05日
    浏览(59)
  • 使用Docker安装和部署Elasticsearch出现问题以及解决方案

    docker安装elasticsearch(最详细版)| Bright1668-CSDN es在Windows环境启动报错 | 你道本部院是个书生-CSDN 查看max_map_count的值 默认是 65530 。 重新设置max_map_count的值。 –name es:设置容器的名称为\\\"es\\\"。 -p 9200:9200 -p 9300:9300:这部分将主机的端口与容器的端口进行映射。 -e “discovery.ty

    2024年02月09日
    浏览(58)
  • Elasticsearch部署中的两大常见问题及其解决方案

    随着大数据和实时搜索的日益普及,Elasticsearch已经成为现代应用中不可或缺的工具。但是,像所有软件一样,部署和配置Elasticsearch可能会遇到一些问题。本文将探讨两个我最近遇到的常见问题及其解决方案。 在启动Elasticsearch时,我遇到了以下错误: failed to resolve host [“l

    2024年02月06日
    浏览(55)
  • LLMs之LLaMA-2:基于云端进行一键部署对LLaMA2模型实现推理(基于text-generation-webui)执行对话聊天问答任务、同时微调LLaMA2模型(配置云端环境【A100】→下载

    LLMs之LLaMA-2:基于云端进行一键部署对LLaMA2模型实现推理(基于text-generation-webui)执行对话聊天问答任务、同时微调LLaMA2模型(配置云端环境【A100】→下载数据集【datasets】→加载模型【transformers】→分词→模型训练【peft+SFTTrainer+wandb】→基于HuggingFace实现云端分享)之图文教程详

    2024年02月05日
    浏览(54)
  • ubuntu开发环境搭建遇到问题与解决

    ubuntu与windows可以进行复制粘贴操作: 更新源 ssh安装: samba环境搭建

    2024年02月07日
    浏览(46)
  • win11下部署stable diffusion docker版遇到的问题和解决方案

    为了在本地愉快流畅地体验stable diffsion,且不希望直接在windows中安装过多复杂的环境,顺便体验容器的部署和发布的便利,决定选择stable diffusion的docker版(AbdBarho版)。 网上已经有很多stable diffusion的部署文章,有很多甚至是零基础或者一键安装的,但自己尝试之后才发现还

    2024年02月07日
    浏览(56)
  • 手把手教你搭建个人地图服务器(高德离线部署解决方案):获取地图瓦片数据、高德JS API、私有化部署和调用。。。

    众所周知,目前常见的地图(高德、百度、腾讯等)只提供在线API服务,对于一些内网应用而言,如果需要使用地图展示,则由于不能访问互联网而无法使用类似的第三方地图服务。 本文,通过将高德地图瓦片数据 和 在线JS API做了本地部署,并修改API,将其所有的网络请求

    2024年02月04日
    浏览(63)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包