基于开源大模型Vicuna-13B构建私有制库问答系统

这篇具有很好参考价值的文章主要介绍了基于开源大模型Vicuna-13B构建私有制库问答系统。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

本教程专注在怎么使用已经开源的模型和项目,构建一个可以私有化部署的问答知识库,而且整体效果要有所保障。

主要工作包括:

  1. 选择基础模型,openAI,claude 这些商用的,或者其他的开源的,这次我们选择 Vicuna-13B;
  2. 开源有很多的知识库问答系统,这次我们选择DB-GPT,优点是支持多端的访问;
  3. 根据项目的整体的要求,尤其是基础模型的要求选择适合的硬件设备,可以选用云服务,这次我们选择阿里云的云服务
  4. 根据项目说明部署

基于开源大模型Vicuna-13B构建私有制库问答系统

  1. 该架构主要由五部分组成,依次为知识库、Embedding、向量存储、大模型(如Vicuna-13B)以及生成(Generate)。整体流程是:知识库经过Embedding处理转化为向量形式,然后这些向量存储到数据库中,大模型通过吸收这些向量化的知识,实现推理和总结的能力,最后进行生成。
  2. 该架构分为四个步骤:知识库准备、Embedding、向量存储和利用大模型的能力。这是一个面向数据库领域的GPT,它准备了主流数据库的文档,并对其进行分类。Embedding阶段将文本转换成向量进行存储,存储媒介是向量数据库。Embedding后的知识会存储在向量数据库中,以备后续检索。最后,利用大模型的能力,通过In-Context-Learning(ICL),使大模型实现基于现有知识的推理、总结。
  3. 通过这种架构,可以实现一个基于现有知识库的问答(QA)项目。

LangChain是当前最受欢迎的大型语言模型(LLM)框架,它是一个基于LLM的应用开发框架。为了使应用更强大且独特,仅依赖大模型的API是不足的。LangChain的设计理念强调数据思维,即将大模型与其他元数据连接,以及代理思维,让语言模型能与环境互动。这个简单但符合自然法则的设计理念深深吸引了我们,因此我们选择了LangChain。

简单介绍什么是langchain:langchain是一个大语言模型应用开发框架,像django是web应用框架一样,langchain也是我们后面开发基于大语言模型应用的框架。而且可以方便的在应用中集成其他工具,这些工具能够弥补LLM的缺失的能力。

购买阿里云GPU实例

参考DB-GPT官方选择硬件

GPU型号 显存大小 性能
RTX4090 24G 可以流畅的进行对话推理,无卡顿
RTX3090 24G 可以流畅进行对话推理,有卡顿感,但好于V100
V100 16G 可以进行对话推理,有明显卡顿

这次选择在阿里云购买GPU实例,参考如下

基于开源大模型Vicuna-13B构建私有制库问答系统

基于开源大模型Vicuna-13B构建私有制库问答系统

选择型号之后,还需要选择系统、GPU驱动、SSD存储、以及实例释放策略等选项。这里需要注意,云盘的规格不要选择太小,建议不小于200G同时去掉随实例释放的选项,这样后续我们可以只释放实例,模型数据可以保留。如果此实例,你想长期使用,建议给ECS做个快照备份。当然,考虑到价格原因,也可以挂一块NFS来存储数据
注意,这里推荐勾选不随实例释放,因为模型,显卡,环境,部署每一步都是钱堆上来的,指不定你什么时候就又要本地部署了,所以把这块盘存下来是明智的选择

网络配置

基于开源大模型Vicuna-13B构建私有制库问答系统

使用自己喜欢的SSH工具登录服务器,例如xshell

基础环境搭建

安装 git git-lfs ,下载模型需要

g++ docker docker.io,部署项目组件需要

apt-get install git git-lfs g++ docker docker.io -y

模型下载

在准备模型阶段,我们首先要下载模型。 这里我们依赖两个基础模型,分别是vicuna-13B以及sentence-transformer

git clone https://github.com/csunny/DB-GPT.git
git clone --progress https://huggingface.co/Tribbiani/vicuna-13b
git clone https://huggingface.co/sentence-transformers/all-MinilM-L6-v2
cd DB-GPT
mkdir models
cd models
mv ../../vicuna-13b/ ./

大概58G,需要一个小时才能下载完成

安装Mysql实例

直接使用官方仓库提供的命令如下:

docker run --name=mysql -p 3306:3306 -e MYSQL ROOT PASSWORD=aa12345678 -dit mysql:latest

安装python环境

python 环境我们要起是大于3.9,这里我们用3.10来进行安装首先我们需要安装conda环境,我们使用miniconda3

wget https://repo.anaconda. com miniconda/Miniconda3-py310 23.3.1-0-Linux-x86 64.sh
sh Miniconda3-py310 23.3.1-0-Linux-x86 64.sh

安装完成之后,需要生效一下环境变量,并创建虚拟环境和激活虚拟环境

source /root/.bashrc
conda create n dbgpt env python=3.10
conda activate dbgpt env

安装依赖

在项目目录下,执行下面的语句

pip install -r requirements.txt

注意,执行如下命令,配置项目路径

echo "/root/DB-GPT”> /root/miniconda3/env/dbgpt_env/lib/python3.10/site packages/dbgpt.pth

启动服务端和客户端 web

# 服务端启动
export PYTHONPATH=SPYTHONPATH:/root/DB-GPT
python pilot/server/llmserver.py
# 客户端启动
export PYTHONPATH=SPYTHONPATH:/root/DB-GPT/
python pilot/server/webserver.py

设置阿里云安全组

配置阿里云的安全组,这些可以在自己机器访问

基于开源大模型Vicuna-13B构建私有制库问答系统

访问IP:7860,看到什么了

构建知识库

这样我们可以使用文档构建自己的问答知识库
基于开源大模型Vicuna-13B构建私有制库问答系统文章来源地址https://www.toymoban.com/news/detail-464203.html

到了这里,关于基于开源大模型Vicuna-13B构建私有制库问答系统的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 使用llama.cpp在本地搭建vicuna 13B语言模型

    有人做了windows下的脚本放到github上了,直接运行就可以了。我在本机试了一下13B的模型能运行,但生成速度非常慢,回复一个问题基本上要花5分钟以上的时间。我的机器配置 3900X 32G内存。 https://github.com/mps256/vicuna.ps1

    2024年02月11日
    浏览(56)
  • Vicuna- 一个类 ChatGPT开源 模型

    Meta 开源 LLaMA(大羊驼)系列模型为起点,研究人员逐渐研发出基于LLaMA的Alpaca(羊驼)、Alpaca-Lora、Luotuo(骆驼)等轻量级类 ChatGPT 模型并开源。 google提出了一个新的模型:Vicuna(小羊驼)。该模型基于LLaMA,参数量13B。Vicuna-13B 通过微调 LLaMA 实现了高性能的对话生成 Vicun

    2024年02月04日
    浏览(92)
  • 基于Ray和vLLM构建70B+模型的开源RLHF全量训练框架

    背景 ChatGPT 已经问世一年+了,在训练 ChatGPT 中必不可少的一环是 RLHF 训练,目前开源社区已经有了不少 RLHF 训练框架比如,TRL, DeepSpeedChat 或者最近热门的 LLaMA Factory。这些框架往往是基于 ZeRO 等并行方式,将 RLHF 算法中的四个模型切片后放到同一个 GPU 上。在模型规模越来越

    2024年01月22日
    浏览(56)
  • LLMs之Vicuna:在Linux服务器系统上实Vicuna-7B本地化部署(基于facebookresearch的GitHub)进行模型权重合并(llama-7b模型与delta模型权重)、模型部

    LLMs之Vicuna:在Linux服务器系统上实Vicuna-7B本地化部署(基于facebookresearch的GitHub)进行模型权重合并(llama-7b模型与delta模型权重)、模型部署且实现模型推理全流程步骤的图文教程(非常详细) 导读 :因为Vicuna的训练成本很低,据说只需要$300左右,所以,还是有必要尝试本地化部署

    2024年02月06日
    浏览(74)
  • 私有化部署大模型:5个.Net开源项目

    从零构建.Net前后端分离项目 今天一起盘点下,10月份推荐的5个.Net开源项目(点击标题查看详情)。 1、BootstrapBlazor企业级组件库:前端开发的革新之路 BootstrapBlazor是一个用于构建现代Web应用程序的开源框架,它基于Blazor框架,采用Bootstrap的UI样式。Blazor框架允许使用C#代替

    2024年02月05日
    浏览(63)
  • C#开源项目:私有化部署LLama推理大模型

    推荐一个C#大模型推理开源项目,让你轻松驾驭私有化部署! 01 项目简介 LLama是Meta发布的一个免费开源的大模型,是一个有着上百亿数量级参数的大语言模型,支持CPU和GPU两种方式。 而LLamaSharp就是针对llama.cpp封装的C#版本,让方便我们基于C#开发应用,让我们不需要自己编译

    2024年02月03日
    浏览(66)
  • 开源双语对话语言模型 ChatGLM-6B 本地私有化部署

    本文首发于:https://www.licorne.ink/2023/08/llm-chatglm-6b-local-deploy/ ChatGLM-6B 是一个开源的、支持中英双语的对话语言模型,基于 General Language Model (GLM) 架构,具有 62 亿参数。结合模型量化技术,用户可以在消费级的显卡上进行本地部署(INT4 量化级别下最低只需 6GB 显存)。 ChatGL

    2024年02月10日
    浏览(73)
  • AnythingLLM:基于RAG方案构专属私有知识库(开源|高效|可定制)

    继OpenAI和Google的产品发布会之后,大模型的能力进化速度之快令人惊叹,然而,对于很多个人和企业而言,为了数据安全不得不考虑私有化部署方案,从GPT-4发布以来,国内外的大模型就拉开了很明显的差距,能够实现的此路径无非就只剩下国内的开源大模型可以选择了。而

    2024年02月04日
    浏览(62)
  • 唯一客服 -基于ChatGPT和私有数据构建智能知识库和个性化AI

    基于ChatGPT和私有数据构建智能知识库和个性化AI 1.注册开通 2.上传文档 3.智能助理 更智能,基于ChatGPT大模型算法,回答准确,逻辑清晰 更安全,支持私有化部署,文档数据本地化,安全可控 更全面,可用于企业AI客服,企业内部知识查询经验分享,员工自助服务,赋能企业

    2024年02月17日
    浏览(52)
  • NLP(六十一)使用Baichuan-13B-Chat模型构建智能文档问答助手

      在文章NLP(六十)Baichuan-13B-Chat模型使用体验中,我们介绍了Baichuan-13B-Chat模型及其在向量嵌入和文档阅读上的初步尝试。   本文将详细介绍如何使用Baichuan-13B-Chat模型来构建智能文档问答助手。 文档问答流程   智能文档问答助手的流程图如下: 文档加载(Document

    2024年02月15日
    浏览(74)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包