云服务器部署开源ChatGLM-6B,让你也能拥有自己的ChatGPT

这篇具有很好参考价值的文章主要介绍了云服务器部署开源ChatGLM-6B,让你也能拥有自己的ChatGPT。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

云服务器部署开源ChatGLM-6B,让你也能拥有自己的ChatGPT,ai,服务器,开源,chatgpt

云服务器部署开源ChatGLM-6B,让你也能拥有自己的ChatGPT,ai,服务器,开源,chatgpt

一、背景

最近GPT不仅发布了GPT-4,而且解除封印可以联网了。不得不赞叹AI更新迭代的速度真快,都跟不上节奏了。但是大家也注意到了吧,随着GPT的每次更新,OpenAI对其开放使用的限制也越来越大。之前国内网随便访问GPT3,现在动不动就封号

所以,今天就来教大家部署国内清华大学开源的ChatGLM-6B。简单介绍下,ChatGLM是对话语言模型,对中文问答和对话进行了优化。当前训练模型有62亿参数,后续还会推出1300亿参数的大模型,期待国内的ChatGLM能越做越强大。

1. ChatGLM的开源地址

ChatGLM的开源地址: THUDM/ChatGLM-6B
云服务器部署开源ChatGLM-6B,让你也能拥有自己的ChatGPT,ai,服务器,开源,chatgpt

2. ChatGLM-6B模型

https://huggingface.co/THUDM/chatglm-6b/tree/main
云服务器部署开源ChatGLM-6B,让你也能拥有自己的ChatGPT,ai,服务器,开源,chatgpt

废话不多说了,直接上效果,以下是由ChatGLM中文对话的结果
(文末给大家准备了ChatGLM的免费体验地址 和 算力平台免费体验方式,一定看到文章结尾哦)
云服务器部署开源ChatGLM-6B,让你也能拥有自己的ChatGPT,ai,服务器,开源,chatgpt

二、服务器选型
2.1. 运行要求

硬件需求

量化等级 最低 GPU 显存(推理) 最低 GPU 显存(高效参数微调)
FP16(无量化) 13 GB 14 GB
INT8 8 GB 9 GB
INT4 6 GB 7 GB
2.2. 服务器选型

官方说明ChatGLM对硬件的配置要求至少13G的显存

要准备的东西如下:

一台GPU云服务器(16GB显存,32G内存)
云服务器上已安装好显卡驱动cuda和pytorch框架(平台都有现成的镜像,直接安装即可)
再来说说服务器厂商的选择,GPU服务器比较贵,所以小卷对比了一些大厂和小厂的GPU规格,这里只看配置符合要求且价钱合适的

厂商 配置 价钱 优势
阿里云 4核-15G内存-16显存NVIDIA T4 1878/月 大厂服务,但是价钱太贵
腾讯云 10核-40G- NVIDIA T4 8.68/小时 大厂服务,但独占1颗GPU价钱略高
华为云 8核-32G-16显存NVIDIA T4 3542/月 大太贵
mistGPU 8核-32G-24G显存NVIDIA 3090 4.5/小时 缺点:只有1GB免费存储
揽睿星舟 10核-40G-24G显存NVIDIA 3090 1.9/小时 推荐,配置高且价钱低,现在NVIDIA 3090有特价

我们这里使用揽睿星舟这个算力平台的服务器,价钱就是优势哦。需要注意的是,GPU服务器要选按量计费,就是你用的时候按使用时长计费,不用时关掉就不会计费

三、服务器配置

这一步购买服务器并安装环境,比较简单

3.1. 注册使用

官网地址:https://www.lanrui-ai.com/register?invitation_code=4126597164
云服务器部署开源ChatGLM-6B,让你也能拥有自己的ChatGPT,ai,服务器,开源,chatgpt

3.2. 购买服务器并安装镜像

在网站的算力市场购买需要的服务器配置,这里我选的是3090-24G这款,点击使用按钮进入镜像安装界面
云服务器部署开源ChatGLM-6B,让你也能拥有自己的ChatGPT,ai,服务器,开源,chatgpt

运行环境镜像选【公共镜像/pytorchofficial-1.12.1-cuda11.6-cudnn8-devel】
云服务器部署开源ChatGLM-6B,让你也能拥有自己的ChatGPT,ai,服务器,开源,chatgpt

等待5分钟左右,工作空间就创建好了,点击 进入-> JupyterLab进入服务器,接下来就准备ChatGLM的安装就行了
云服务器部署开源ChatGLM-6B,让你也能拥有自己的ChatGPT,ai,服务器,开源,chatgpt

四、部署ChatGLM
4.1. conda环境安装
wget -c https://repo.anaconda.com/archive/Anaconda3-2021.05-Linux-x86_64.sh
cd /home/user
bash Anaconda3-2021.05-Linux-x86_64.sh

一路选择yes

配置环境变量

vim /etc/profile
export PATH=/root/anaconda3/bin:$PATH

刷新环境变量

source /etc/profile

服务验证

conda -V

镜像源配置

vim ~/.condarc
channels:
  - http://mirrors.aliyun.com/anaconda/cloud/stackless
  - https://mirrors.aliyun.com/anaconda/cloud/simpleitk
  - https://mirrors.aliyun.com/anaconda/cloud/rdkit
  - https://mirrors.aliyun.com/anaconda/cloud/rapidsai
  - https://mirrors.aliyun.com/anaconda/cloud/qiime2
  - https://mirrors.aliyun.com/anaconda/cloud/pyviz
  - https://mirrors.aliyun.com/anaconda/cloud/pytorch3d
  - https://mirrors.aliyun.com/anaconda/cloud/pytorch-test
  - https://mirrors.aliyun.com/anaconda/cloud/pytorch
  - https://mirrors.aliyun.com/anaconda/cloud/psi4
  - https://mirrors.aliyun.com/anaconda/cloud/plotly
  - https://mirrors.aliyun.com/anaconda/cloud/omnia
  - https://mirrors.aliyun.com/anaconda/cloud/ohmeta
  - https://mirrors.aliyun.com/anaconda/cloud/numba
  - https://mirrors.aliyun.com/anaconda/cloud/msys2
  - https://mirrors.aliyun.com/anaconda/cloud/mordred-descriptor
  - https://mirrors.aliyun.com/anaconda/cloud/menpo
  - https://mirrors.aliyun.com/anaconda/cloud/matsci
  - https://mirrors.aliyun.com/anaconda/cloud/intel
  - https://mirrors.aliyun.com/anaconda/cloud/idaholab
  - https://mirrors.aliyun.com/anaconda/cloud/fermi
  - https://mirrors.aliyun.com/anaconda/cloud/fastai
  - https://mirrors.aliyun.com/anaconda/cloud/dglteam
  - https://mirrors.aliyun.com/anaconda/cloud/deepmodeling
  - https://mirrors.aliyun.com/anaconda/cloud/conda-forge
  - https://mirrors.aliyun.com/anaconda/cloud/caffe2
  - https://mirrors.aliyun.com/anaconda/cloud/c4aarch64
  - https://mirrors.aliyun.com/anaconda/cloud/bioconda
  - https://mirrors.aliyun.com/anaconda/cloud/biobakery
  - https://mirrors.aliyun.com/anaconda/cloud/auto
  - https://mirrors.aliyun.com/anaconda/cloud/Paddle
  - https://mirrors.aliyun.com/anaconda/pkgs/r
  - https://mirrors.aliyun.com/anaconda/pkgs/msys2
  - https://mirrors.aliyun.com/anaconda/pkgs/main
  - https://mirrors.aliyun.com/anaconda/pkgs/free
show_channel_urls: true

ssl_verify: true
allow_conda_downgrades: true

pip配置

[global] 
index-url = http://mirrors.aliyun.com/pypi/simple/ 
[install] 
trusted-host=mirrors.aliyun.com
4.2. 下载ChatGLM源代码

云服务器部署开源ChatGLM-6B,让你也能拥有自己的ChatGPT,ai,服务器,开源,chatgpt

进入Jupyter的页面后,可以看到2个目录,对目录做下说明:

  • data目录,存放数据,平台共享的
  • imported_models目录,存放预训练模型,等会需要下载
    云服务器部署开源ChatGLM-6B,让你也能拥有自己的ChatGPT,ai,服务器,开源,chatgpt

云服务器部署开源ChatGLM-6B,让你也能拥有自己的ChatGPT,ai,服务器,开源,chatgpt

点击data目录下,可以看到ChatGLM-6B文件夹,里面是ChatGLM的源代码。
云服务器部署开源ChatGLM-6B,让你也能拥有自己的ChatGPT,ai,服务器,开源,chatgpt

注第一次是空的需要手动下载源码

如果没有ChatGLM-6B目录,那么我们这一步需要下载代码,操作如下:
页面打开一个Terminal终端,在Terminal终端执行命令
云服务器部署开源ChatGLM-6B,让你也能拥有自己的ChatGPT,ai,服务器,开源,chatgpt

git clone https://github.com/THUDM/ChatGLM-6B.git

云服务器部署开源ChatGLM-6B,让你也能拥有自己的ChatGPT,ai,服务器,开源,chatgpt

4.3. 下载模型

由于模型文件大需要执行以下命令再拉取chatglm-6b模型

mkdir /home/user/imported_models/model/
cd /home/user/imported_models/model/
apt install git-lfs
git lfs install
git clone https://huggingface.co/THUDM/chatglm-6b
4.4. 安装依赖
  • 1.执行命令切换到ChatGLM-6B的目录
cd ChatGLM-6B
  • 2.接着修改requirements.txt文件,把后续所有需要的依赖都加上,下面的配置加在文件末尾即可,如果文件里已加上这3个依赖,无需再修改。
vim requirements.txt

云服务器部署开源ChatGLM-6B,让你也能拥有自己的ChatGPT,ai,服务器,开源,chatgpt

chardet
streamlit
streamlit-chat
  • 3.加完之后save保存下文件,如图
    云服务器部署开源ChatGLM-6B,让你也能拥有自己的ChatGPT,ai,服务器,开源,chatgpt

云服务器部署开源ChatGLM-6B,让你也能拥有自己的ChatGPT,ai,服务器,开源,chatgpt

  • 4.接着命令行执行下面命令安装依赖

#使用默认镜像源下载会超时,这里用了清华的pip镜像源地址

创建虚拟环境
conda create -n ChatGLM python==3.10
conda init bash

重新打开一个新的窗口执行激活环境
conda activate ChatGLM
pip install -r requirements.txt -i https://pypi.tuna.tsinghua.edu.cn/simple/

云服务器部署开源ChatGLM-6B,让你也能拥有自己的ChatGPT,ai,服务器,开源,chatgpt

云服务器部署开源ChatGLM-6B,让你也能拥有自己的ChatGPT,ai,服务器,开源,chatgpt

这一步可能会执行报错

.ERROR: Could not install packages due to an OSError: Missing dependencies for SOCKS support
云服务器部署开源ChatGLM-6B,让你也能拥有自己的ChatGPT,ai,服务器,开源,chatgpt

解决方法:切换到root用户后再执行命令

# 切换root用户
sudo su

# 重新执行
pip install -r requirements.txt -i https://pypi.tuna.tsinghua.edu.cn/simple/
4.4. 启动脚本修改

因为模型是单独文件夹存储的,所以需要修改启动脚本中读模型文件的代码
为了能从公网访问我们的ChatGLM,需要修改监听地址为0.0.0.0,端口为27777,这个是揽睿星舟平台的调试地址
修改步骤:

  • 1.修改web_demo2.py文件中的模型路径,替换为模型的绝对路径,修改方法如下:
vim web_demo2.py 

云服务器部署开源ChatGLM-6B,让你也能拥有自己的ChatGPT,ai,服务器,开源,chatgpt

修改前的代码

tokenizer = AutoTokenizer.from_pretrained("THUDM/chatglm-6b", trust_remote_code=True)
    model = AutoModel.from_pretrained("THUDM/chatglm-6b", trust_remote_code=True).half().cuda()

修改后的代码

tokenizer = AutoTokenizer.from_pretrained("/home/user/imported_models/model/chatglm-6b", trust_remote_code=True)
    model = AutoModel.from_pretrained("/home/user/imported_models/model/chatglm-6b", trust_remote_code=True).half().cuda()

云服务器部署开源ChatGLM-6B,让你也能拥有自己的ChatGPT,ai,服务器,开源,chatgpt

修改完后ctrl + s保存一下

4.5. 启动ChatGLM

ChatGLM-6B目录下,命令行执行

python3 -m streamlit run ./web_demo2.py --server.port 27777 --server.address 0.0.0.0

启动ChatGLM的webui界面
云服务器部署开源ChatGLM-6B,让你也能拥有自己的ChatGPT,ai,服务器,开源,chatgpt
看到http://0.0.0.0:27777字样说明成功启动了

五、使用

我们需要从浏览器访问刚部署的服务,回到揽睿星舟平台
云服务器部署开源ChatGLM-6B,让你也能拥有自己的ChatGPT,ai,服务器,开源,chatgpt

在工作空间页面上点击自定义服务拷贝调试链接,然后把拷贝的链接在浏览器上打开
云服务器部署开源ChatGLM-6B,让你也能拥有自己的ChatGPT,ai,服务器,开源,chatgpt

云服务器部署开源ChatGLM-6B,让你也能拥有自己的ChatGPT,ai,服务器,开源,chatgpt

然后你就可以在这个页面开始对话了
注意第一次对话时,程序会加载模型文件,耗时会比较长,可以从刚才启动的命令行查看加载进度。
等第一次加载完成后,后面再对话,响应就很快了

六、对话效果

到这一步,所有安装部署过程就成功完成了,我们来看看效果吧,拷贝的链接在手机端也能打开,下面是手机端的效果
云服务器部署开源ChatGLM-6B,让你也能拥有自己的ChatGPT,ai,服务器,开源,chatgpt

七、关闭服务

因为我们的服务按使用量收费的,所以不用时在页面上点击停止运行即可

云服务器部署开源ChatGLM-6B,让你也能拥有自己的ChatGPT,ai,服务器,开源,chatgpt

八、重启服务

想重新运行服务的时候,点工作空间页面上的启动按钮。工作空间重新创建后,进入红色Jupyter,通过命令行再次启动

实例重启后conda环境需要重新安装

cd /home/user
bash Anaconda3-2021.05-Linux-x86_64.sh
一路选择yes

配置环境变量
vim /etc/profile
export PATH=/root/anaconda3/bin:$PATH

刷新环境变量
source /etc/profile

服务验证
conda -V

cd /home/user/data/ChatGLM-6B/

# 创建虚拟环境
conda create -n ChatGLM python==3.10

conda init bash

# 重新打开一个新的窗口执行激活环境
conda activate ChatGLM


安装依赖
pip install -r requirements.txt -i https://pypi.tuna.tsinghua.edu.cn/simple/

启动ChatGLM
python3 -m streamlit run ./web_demo2.py --server.port 27777 --server.address 0.0.0.0

云服务器部署开源ChatGLM-6B,让你也能拥有自己的ChatGPT,ai,服务器,开源,chatgpt

云服务器部署开源ChatGLM-6B,让你也能拥有自己的ChatGPT,ai,服务器,开源,chatgpt

如果报错请参考下面的异常汇总

六、异常汇总
6.1. not found icetk

ImportError: This modeling file requires the following packages that were not found in your environment: icetk. Run pip install icetk
解决方案文章来源地址https://www.toymoban.com/news/detail-521432.html

cd data/ChatGLM-6B/
pip install icetk
python3 -m streamlit run ./web_demo2.py --server.port 27777 --server.address 0.0.0.0

到了这里,关于云服务器部署开源ChatGLM-6B,让你也能拥有自己的ChatGPT的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 开源双语对话语言模型 ChatGLM-6B 本地私有化部署

    本文首发于:https://www.licorne.ink/2023/08/llm-chatglm-6b-local-deploy/ ChatGLM-6B 是一个开源的、支持中英双语的对话语言模型,基于 General Language Model (GLM) 架构,具有 62 亿参数。结合模型量化技术,用户可以在消费级的显卡上进行本地部署(INT4 量化级别下最低只需 6GB 显存)。 ChatGL

    2024年02月10日
    浏览(53)
  • 【ChatGLM】本地版ChatGPT ?6G显存即可轻松使用 !ChatGLM-6B 清华开源模型本地部署教程

    目录 感谢B站秋葉aaaki大佬 前言 部署资源 部署流程  实机演示 ChatGML微调(人格炼成)(个人感觉蛮有趣的地方)  分享有趣の微调人格  实机演示(潘金莲人格) 秋葉aaaki的个人空间_哔哩哔哩_bilibili https://space.bilibili.com/12566101 由于ChatGLM-6B的规模较小,目前已知其具有相当

    2024年02月06日
    浏览(42)
  • 【ChatGLM】手把手教你云服务器部署ChatGLM聊天网站,不限次数调用。

    私人部署地址:http://ilovechatgpt.cn。 免费使用!无限调用!速度还蛮快呢。 官方地址:https://github.com/THUDM/ChatGLM-6B ChatGLM-6B 是一个 开源的、支持中英双语的对话语言模型 ,由基于 清华大学 KEG 实验室 与 智谱 AI 于 2023 年联合训练,可以针对用户的问题和要求提供适当的答复和

    2024年02月16日
    浏览(39)
  • 清华大学开源ChatGLM2-6B开源模型在anaconda下的虚拟环境详细部署及安装教程

    python版本要求:3.8以上 没有安装python的没有关系,我们在下面安装anaconda中会自动生成python,有了python的建议删除,通过anaconda安装python以便于后面创建虚拟环境。 windows系统:Windows 10 以上,推荐N卡(NVIDIA显卡20系列以上) 注意:处理器为AMD容易报错,intel的不容易报错,配

    2024年02月16日
    浏览(74)
  • 【实用的开源项目】使用服务器部署Navidrome音乐服务器,又一款开源的音乐服务器程序!

    之前小俊给大家介绍过 Koel 音频流服务,就是为了解决大家的这个问题:下载下来的音乐,只能在本机欣赏,难以在多设备共享,如果自己搭建一个音乐服务器,然后再上传自己喜欢的音乐,就太巴适了!小俊最近发现了一个程序—— Navidrome ,小俊这就来推荐给大家啦!还

    2024年04月16日
    浏览(33)
  • Ubuntu部署EMQX开源版MQTT服务器-Orange Pi部署-服务器部署

            作为全球最具扩展性的 MQTT 消息服务器,EMQX 提供了高效可靠海量物联网设备连接,能够高性能实时移动与处理消息和事件流数据,本文将介绍如何在Ubuntu 22.04上部署MQTT服务器。我们本次选择开源版,使用离线安装方式部署。        安装包可以有两种格式,一种

    2024年01月18日
    浏览(38)
  • 【AI】RTX2060 6G Ubuntu 22.04.1 LTS (Jammy Jellyfish) 部署chatglm2-6b 开源中英双语对话模型

    项目地址 chatglm2-6b 下载模型 创建测试项目 创建虚拟环境安装依赖 完整的venv环境 main.py 执行 python进程cpu使用率100.3%持续了很长时间,没有启用多线程?

    2024年01月20日
    浏览(44)
  • 服务器部署网易开源TTS | EmotiVoice部署教程

    1.1、安装docker 如何安装docker,可以参考这篇文章 1.2、拉取镜像 安装 python 依赖 安装 git lfs 和下载模型 下载预训练模型 将预训练模型放在源码中的位置 下载源码 在源码路径中创建目录保存预训练模型 将 g_* , do_* 文件放到 outputs/prompt_tts_open_source_joint/ckpt ,将 checkpoint_* 放到

    2024年02月04日
    浏览(50)
  • 全网最新版ChatGLM-6B开源模型环境详细部署及安装——如何在低显存单显卡上面安装私有ChatGPT GPT-4大语言模型

    ChatGPT的爆火让许多公司和个人都想要开发自己的大型语言模型,但是,由于算力和语言模型开发能力等诸多方面的限制,许多人最终都只能在开发的早期阶段止步不前。然而,近期清华大学知识工程和数据挖掘小组(Knowledge Engineering Group (KEG) Data Mining at Tsinghua University)发布

    2024年02月05日
    浏览(63)
  • 轻量级全功能开源免费Mailu邮件服务器部署

    实践说明:基于AlmaLinux9,但适用场景不限于此。 文档形成时期:2023年 因系统或软件版本不同,构建部署可能略有差异,但本文未做细分,对稍有经验者应不存在明显障碍。 因软件世界之复杂和个人能力之限,难免疏漏和错误,欢迎指正。 占用资源少而使用成本低; 基本功

    2024年02月02日
    浏览(53)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包