【大模型知识库】(1):系统架构设计思考/调研。开源项目llm-knowledge-system,部署mysql,seilisearch,milvus,fastchat的ChatGLM3,BGE-zh

这篇具有很好参考价值的文章主要介绍了【大模型知识库】(1):系统架构设计思考/调研。开源项目llm-knowledge-system,部署mysql,seilisearch,milvus,fastchat的ChatGLM3,BGE-zh。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

1,视频地址

https://www.bilibili.com/video/BV1N94y1n7UF/

【大模型知识库】(1):设计开源项目,docker部署mysql,seilisearch,milvus,fastchat的ChatGLM3,BGE-zh模型

2,整体架构和技术方案

项目名称 llm-knowledge-system
大模型知识库系统
项目代码在,逐步开发设计中。

https://gitee.com/fly-llm/llm-knowledge-system

llm知识库的技术架构,chatgpt,大模型,docker,开源,人工智能,chatglm3,docker,向量数据库,milvus,大模型
开发语言使用golang进行开发。
框架使用goframe。主要是考虑到高并发,和快速部署。

3,goframe框架

官方:https://goframe.org/display/gf
代码:
https://gitee.com/johng/gf

GoFrame是一款模块化、高性能、企业级的Go基础开发框架。GoFrame是一款通用性的基础开发框架,是Golang标准库的一个增强扩展级,包含通用核心的基础开发组件,优点是实战化、模块化、文档全面、模块丰富、易用性高、通用性强、面向团队。GoFrame即可用于开发完整的工程化项目,由于框架基础采用模块化解耦设计,因此也可以作为工具库使用。

如果您想使用Golang开发一个业务型项目,无论是小型还是中大型项目,GoFrame是您的不二之选。如果您想开发一个Golang组件库,GoFrame提供开箱即用、丰富强大的基础组件库也能助您的工作事半功倍。如果您是团队Leader,GoFrame丰富的资料文档、详尽的代码注释、活跃的社区成员将会极大降低您的指导成本,支持团队快速接入、语言转型与能力提升。

4,搜索库 MeiliSearch

MeiliSearch
基于 Rust 语言开发的开源搜索引擎

https://www.meilisearch.com/

5,向量数据库 milvus

https://milvus.io/

一款开源向量数据库,赋能 AI 应用和向量相似度搜索。
Field:类似表字段,可以是结构化数据,当然还可以是向量;
Entity:一组Field,类似表的一条数据;
Collection:一组Entity,类似于表;

Milvus不单单是向量检索工具,而是向量数据库,能对不同业务的向量隔离,分开存储;
提供可视化管理工具;
支持带过滤条件的向量混合检索。

https://zhuanlan.zhihu.com/p/405186060#%E5%89%8D%E8%A8%80%E6%8F%90%E7%A4%BA

6,关于fastchat部署 ChatGLM3和 BGE的embedding

之前的项目已经调研清楚了:

【ChatGLM3】(5):使用 fastchat 部署ChatGLM3服务,启动8bit的worker,可以运行openai_api服务和web界面方便进行测试。还支持embeddings 接口!

https://blog.csdn.net/freewebsys/article/details/134484318?spm=1001.2014.3001.5501

fastchat其实可以分开部署,分为 CPU 版本和 GPU 版本。这样在生产环境更灵活。
其中workder可以支持多机器部署:

# 构建 cpu 版本
FROM python:slim-bullseye 

# 设置python3的镜像源
RUN  mkdir /root/.pip/ && echo "[global]" > /root/.pip/pip.conf && \
echo "index-url = https://mirrors.aliyun.com/pypi/simple/" >> /root/.pip/pip.conf && \
echo "[install]" >> /root/.pip/pip.conf && \
echo "trusted-host=mirrors.aliyun.com" >> /root/.pip/pip.conf

# 先安装 
RUN pip3 install "fschat[controller]" 

GPU的镜像主要跑模型:

## 参考文章:https://blog.csdn.net/freewebsys/article/details/134567530

FROM pytorch/pytorch:2.1.0-cuda12.1-cudnn8-devel

# 设置debian的镜像源 && # 设置python3的镜像源
RUN echo "deb https://mirrors.aliyun.com/ubuntu/ focal main restricted universe multiverse" > /etc/apt/sources.list && \
echo "deb https://mirrors.aliyun.com/ubuntu/ focal-updates main restricted universe multiverse" >> /etc/apt/sources.list && \
echo "deb https://mirrors.aliyun.com/ubuntu/ focal-backports main restricted universe multiverse" >> /etc/apt/sources.list && \
echo "deb https://mirrors.aliyun.com/ubuntu/ focal-security main restricted universe multiverse" >> /etc/apt/sources.list && \
pip3 config set global.index-url https://mirrors.aliyun.com/pypi/simple && \
pip3 config set install.trusted-host mirrors.aliyun.com 

# 先安装 xformers 再安装 fastchat, 就不会安装 pytroch 了,会使用 xformers 依赖的版本了。
# apt update && apt install -y net-tools vim 
RUN pip3 install transformers accelerate sentencepiece \
  && pip3 install "fschat[model_worker,webui]" 

7,整个的docker-compose组件

整个的docker-compose文件:
包括:
mysql,seilisearch,milvus,fastchat的ChatGLM3,BGE-zh

version: '3.5'

services:

################## mysql 数据库 5.7 版本 ##################
  mysql:
    restart: always
    image: mysql:5.7
    container_name: mysql
    ports:
        - "3306:3306"
    volumes:
        - "./data/mysql:/var/lib/mysql"
    #    - "./conf/mysql/mysql.cnf:/etc/mysql/conf.d/mysql.cnf"
    environment:
        MYSQL_ROOT_PASSWORD: mysqladmin
        MYSQL_DATABASE: llm_knowledge
        TZ: Asia/Shanghai
    command: [
        '--character-set-server=utf8mb4',
        '--collation-server=utf8mb4_general_ci',
        '--max_connections=3000'
    ]

################## meilisearch 1.5 搜索服务 ##################
  meilisearch:
    restart: always
    image: getmeili/meilisearch:v1.5
    container_name: meilisearch
    ports:
        - "7700:7700"
    volumes:
        - "./data/meilisearch:/meili_data"
    environment:
        MEILI_ENV: production
        MEILI_MASTER_KEY: admin_1234567890

##################### 向量数据库配置 #####################
  etcd:
    restart: always
    container_name: milvus-etcd
    image: quay.io/coreos/etcd:v3.5.5
    environment:
      - ETCD_AUTO_COMPACTION_MODE=revision
      - ETCD_AUTO_COMPACTION_RETENTION=1000
      - ETCD_QUOTA_BACKEND_BYTES=4294967296
      - ETCD_SNAPSHOT_COUNT=50000
    volumes:
      - ./data/milvus/etcd:/etcd
    command: etcd -advertise-client-urls=http://127.0.0.1:2379 -listen-client-urls http://0.0.0.0:2379 --data-dir /etcd
    healthcheck:
      test: ["CMD", "etcdctl", "endpoint", "health"]
      interval: 30s
      timeout: 20s
      retries: 3

  minio:
    restart: always
    container_name: milvus-minio
    image: minio/minio:RELEASE.2023-03-20T20-16-18Z
    environment:
      MINIO_ACCESS_KEY: minioadmin
      MINIO_SECRET_KEY: minioadmin
    ports:
      - "9001:9001"
      - "9000:9000"
    volumes:
      - ./data/milvus/minio:/minio_data
    command: minio server /minio_data --console-address ":9001"
    healthcheck:
      test: ["CMD", "curl", "-f", "http://localhost:9000/minio/health/live"]
      interval: 30s
      timeout: 20s
      retries: 3

  milvus-standalone:
    restart: always
    container_name: milvus-standalone
    image: milvusdb/milvus:v2.3.3
    command: ["milvus", "run", "standalone"]
    security_opt:
    - seccomp:unconfined
    environment:
      ETCD_ENDPOINTS: etcd:2379
      MINIO_ADDRESS: minio:9000
    volumes:
      - ./data/milvus/milvus:/var/lib/milvus
    healthcheck:
      test: ["CMD", "curl", "-f", "http://localhost:9091/healthz"]
      interval: 30s
      start_period: 90s
      timeout: 20s
      retries: 3
    ports:
      - "19530:19530"
      - "9091:9091"
    depends_on:
      - "etcd"
      - "minio"

##################### 使用fastchat部署大模型 #####################
  fastchat-controller:
    restart: always
    container_name: fastchat-controller
    image: fastchat-cpu:v1.0
    build:
      context: .
      dockerfile: docker/fastchat/DockerfileCpu
    # 获取当前ip地址
    command: python3 -m fastchat.serve.controller --host 0.0.0.0 --port 21001

  fastchat-api:
    restart: always
    container_name: fastchat-api
    image: fastchat-cpu:v1.0
    build:
      context: .
      dockerfile: docker/fastchat/DockerfileCpu
    # 获取当前ip地址 执行模型。
    ports:
      - "8000:8000"
    command: 
        bash -c "python3 -m fastchat.serve.openai_api_server --controller-address http://fastchat-controller:21001 \
         --host 0.0.0.0 --port 8000 "
    depends_on:
      - "fastchat-controller"
  fastchat-worker-chatglm3:
    restart: always
    container_name: fastchat-worker-chatglm3
    image: fastchat-gpu:v1.0
    volumes:
      - ./models/chatglm3-6b:/data/models/chatglm3-6b
    build:
      context: .
      dockerfile: docker/fastchat/DockerfileGpu
    # 是以 GPU 资源。
    deploy:
        resources:
            reservations:
                devices:
                  - driver: "nvidia"
                    count: "all"
                    capabilities: ["gpu"]
    # 获取当前ip地址 执行模型。
    command: 
        bash -c "python3 -m fastchat.serve.model_worker --load-8bit --model-names chatglm3-6b \
         --model-path /data/models/chatglm3-6b --controller-address http://fastchat-controller:21001 \
         --worker-address http://fastchat-worker-chatglm3:8001 --host 0.0.0.0 --port 8001 "
    depends_on:
      - "fastchat-controller"
  fastchat-worker-bge-large-zh:
    restart: always
    container_name: fastchat-worker-bge-large-zh
    image: fastchat-gpu:v1.0
    volumes:
      - ./models/bge-large-zh:/data/models/bge-large-zh
    build:
      context: .
      dockerfile: docker/fastchat/DockerfileGpu
    # 是以 GPU 资源。
    deploy:
        resources:
            reservations:
                devices:
                  - driver: "nvidia"
                    count: "all"
                    capabilities: ["gpu"]
    # 获取当前ip地址 执行模型。
    command: 
        bash -c "python3 -m fastchat.serve.model_worker --model-names bge-large-zh \
         --model-path /data/models/bge-large-zh --controller-address http://fastchat-controller:21001 \
         --worker-address http://fastchat-worker-bge-large-zh:8001 --host 0.0.0.0 --port 8001 "
    depends_on:
      - "fastchat-controller"

networks:
  default:
    name: knowledge-network

启动成之后,测试接口:

curl http://localhost:8000/v1/embeddings \
 -H "Content-Type: application/json" \
 -d '{
  "input": "Your text string goes here",
  "model": "bge-large-zh"
}'

curl http://localhost:8000/v1/chat/completions   -H "Content-Type: application/json" -d '{
     "model": "chatglm3-6b",
     "messages": [{"role": "user", "content": "你好"}],
     "temperature": 0.7
}'

8,总结

整个的docker-compose文件:

项目 介绍 端口
mysql 数据库 3306
meilisearch 搜索库 7700
milvus 向量数据库 19530
fastchat 模型框架,部署chatglm3,BGE-zh 8000

使用goframe可以快速创建项目。
然后就可以进行开发了。
在项目的docker-compose 目录下可以直接将各种中间件服务都启动。
配置都在各自中间件的目录下面。

中间件都可以启动成功了。主要是fastchat复杂点。文章来源地址https://www.toymoban.com/news/detail-788480.html

到了这里,关于【大模型知识库】(1):系统架构设计思考/调研。开源项目llm-knowledge-system,部署mysql,seilisearch,milvus,fastchat的ChatGLM3,BGE-zh的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 大语言模型也是知识库:基于知识的对话大模型综述

    ©PaperWeekly 原创 · 作者 | 缥缈孤鸿影 引言 ChatGPT 的横空出世,在整个自然语言处理乃至人工智能领域均掀起波澜。不同于普通的闲聊式机器人和任务型智能客服仅局限于固定场景,ChatGPT 具有相当丰富的知识储备,对于很多冷门的知识,它亦能对答如流,堪称当代“百晓生”

    2024年02月09日
    浏览(31)
  • 基于大语言模型知识问答应用落地实践 – 知识库构建(下)

    上篇介绍了构建知识库的大体流程和一些优化经验细节,但并没有结合一个具体的场景给出更细节的实战经验以及相关的一些 benchmark 等,所以本文将会切入到一个具体场景进行讨论。 目标场景:对于 PubMed 医疗学术数据中的 1w 篇文章进行知识库构建,实现快速的注入和查

    2024年02月10日
    浏览(28)
  • AI知识库进阶!三种数据处理方法!提高正确率!本地大模型+fastgpt知识库手把手搭建!22/45

    hi~ 在上一篇,我们成功搭建了本地知识库+大模型的完全体! 在知识星球收到很多朋友的打卡,有各种报错差点崩溃的,也有看到部署成功,开心得跳起来的! 除了自用,还有星球朋友学会搭建,成功接到商单(听说单子还不小)! 不管怎样,酸甜苦辣,总算把它部署了下

    2024年03月11日
    浏览(38)
  • 【AI实战】给类ChatGPT的大语言模型外挂私有知识库

    本文使用 langChain 来给大语言模型 ChatGLM-6B 外挂一个或者多个私有知识库。 原理流程图 【原图来自】https://github.com/imClumsyPanda/langchain-ChatGLM 从文档处理角度来看,实现流程如下 【原图来自】https://github.com/imClumsyPanda/langchain-ChatGLM CUDA 11.4 Ubuntu 20.04 python 3.8.10 torch 1.13.0 langchai

    2024年02月08日
    浏览(24)
  • wiki.js一个开源知识库系统

    wiki.js是一个开源Wiki应用程序,官网介绍为: A modern, lightweight and powerful wiki app built on NodeJS 访问Github:github 访问Wike:js.wiki 开源知识库平台,和语雀有一样的功能,独立部署; wiki支持权限管理、用户管理,可使用markdown格式编辑; wiki的部署推荐使用postgres9.5以上版本作为存

    2024年02月04日
    浏览(25)
  • C++、QT(GUI)知识库系统

    目录 一、项目介绍 二、项目展示 三、源码分享 知识库系统 为一些常用知识进行统一储存、管理、更新、检索等功能的系统,整体类似于博客之类的系统。 用户的使用流程: 查看知识:搜索知识 - 点击查看知识内容 - 对知识进行点赞、评论(包括回复评论)、收藏、

    2024年02月13日
    浏览(23)
  • 【新品发布】ChatWork企业知识库系统源码

    基于前后端分离架构以及Vue3、uni-app、ThinkPHP6.x、PostgreSQL、pgvector技术栈开发,包含PC端、H5端。 ChatWork支持问答式和文档式知识库,能够导入txt、doc、docx、pdf、md等多种格式文档。 导入数据完成向量化训练后,用户提问即可进行向量化搜索,并且结合大语言模型进行AI回答,

    2024年02月13日
    浏览(22)
  • 【高级RAG技巧】在大模型知识库问答中增强文档分割与表格提取

    文档分割是一项具有挑战性的任务,它是任何知识库问答系统的基础。高质量的文档分割结果对于显著提升问答效果至关重要,但是目前大多数开源库的处理能力有限。 这些开源的库或者方法缺点大致可以罗列如下: 只能处理文本,无法提取表格中的内容 缺乏有效的分割策

    2024年04月22日
    浏览(17)
  • KnowledgeGPT:利用检索和存储访问知识库上增强大型语言模型10.30

    大型语言模型(LLM)在自然语言处理领域展现出了令人印象深刻的影响,但它们仍然在几个方面存在问题,例如完整性、及时性、忠实度和适应性。尽管最近的研究工作集中在将LLM与外部知识源进行连接,但知识库(KB)的整合仍然研究不足且面临多个挑战。 本文介绍了Kno

    2024年02月06日
    浏览(21)
  • Langchain-Chatchat大语言模型本地知识库的踩坑、部署、使用

    Langchain-Chatchat是一个基于ChatGLM大语言模型与Langchain应用框架实现,开源、可离线部署的检索增强生成(RAG)大模型的本地知识库问答应用项目。 GitHub: https://github.com/chatchat-space/Langchain-Chatchat 本项目实现原理如下图所示,过程包括加载文件 - 读取文本 - 文本分割 - 文本向量化

    2024年02月04日
    浏览(44)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包