ChatGLM-6B阿里云部署

这篇具有很好参考价值的文章主要介绍了ChatGLM-6B阿里云部署。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

机器配置

重点关注指标:CPU、内存、GPU、GPU驱动 

类型 OS CPU 内存 GPU
机器配置 ubuntu_20_04_x64 16核 125G NVIDIA A100 80G

 ChatGLM-6B阿里云部署

# 查看显卡安装状态
nvidia-smi

ChatGLM-6B阿里云部署

 安装必要的软件

git

sudo apt-get update
sudo apt-get install git

git-lfs(大文件管理)

sudo apt-get install git-lfs

python 3.10.7(如果已经安装了python其他版本,不用再安装此版本)

下载解压源码

wget https://www.python.org/ftp/python/3.10.7/Python-3.10.7.tgz
tar –xf Python-3.10.7.tgz
cd Python-3.10.7
# 安装必要的依赖库[必选]
sudo apt-get install build-essential python-dev python-setuptools python3-pip python3-smbus
sudo apt-get install libncursesw5-dev libgdbm-dev libc6-dev
sudo apt-get install zlib1g-dev libsqlite3-dev tk-dev
sudo apt-get install libssl-dev openssl
 sudo apt-get install libffi-de
sudo apt install libreadline-dev

#构建
./configure --enable-optimizations
make -j 4
make altinstall
 
#软连接替换
rm /usr/bin/python3
ln -s /usr/local/bin/python3.10 /usr/bin/python3

此时终端内输入:

python -V
出现 Python 3.10.7表示python安装成功。

下载模型

下载ChatGLM-6B

git clone https://github.com/THUDM/ChatGLM-6B

下载完后,创建chatglm文件夹:

cd ChatGLM-6B
mkdir chatglm

2、下载模型文件

进入上一步中创建的chatglm。

cd chatglm
git lfs install
git clone https://huggingface.co/THUDM/chatglm-6b

大概等待30分钟下载完毕。

文件较大,建议从访问THUDM/chatglm-6b · Hugging Face

下载大文件到本地,再上传到云服务器上 ChatGLM-6B阿里云部署

3、安装依赖

返回ChatGLM-6B文件夹。

cd ..
# 此处可能报错,解法看下面的【避坑指南】 pkg_resources.VersionConflict: (pip 23.1.2 (/usr/local/lib/python3.10/site-packages), Requirement.parse('pip==20.0.2'))
pip install -r requirements.txt

运行模型

1、修改模型路径。

vim cli_demo.py

更改代码6、7行,把模型目录设置为我们之前下载好的模型目录:chatglm/chatglm-6bChatGLM-6B阿里云部署

2、运行cli_demo

python3 cli_demo.py

即可成功运行

ChatGLM-6B阿里云部署

避坑指南:

pkg_resources.VersionConflict: (pip 23.1.2 (/usr/local/lib/python3.10/site-packages), Requirement.parse('pip==20.0.2')) 

参考:

https://you.com/search?q=pkg_resources.distributionnotfound%3A+the+%27pip%3D%3D20.0.2%27+distribution+was+not+found+and+is+required+by+the+application&tbm=youchat&cfr=chatb&cid=c2_15a8026a-1342-4892-b3a9-3ea8b1fa95aa

步骤一:升级pip3到23.1.2 

python3 -m pip install --upgrade pip

步骤二:

#如下图修改pip版本
vim /usr/bin/pip3
vim /usr/bin/pip

ChatGLM-6B阿里云部署

参考文献

THUDM ChatGLM

GitHub - THUDM/ChatGLM-6B: ChatGLM-6B: An Open Bilingual Dialogue Language Model | 开源双语对话语言模型

ChatGLM-6B模型

https://huggingface.co/THUDM/chatglm-6b/tree/main文章来源地址https://www.toymoban.com/news/detail-512130.html

到了这里,关于ChatGLM-6B阿里云部署的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 免费部署开源大模型 ChatGLM-6B

    参考:【大模型-第一篇】在阿里云上部署ChatGLM3-CSDN博客 ChatGLM 是一个开源的、支持中英双语的对话语言模型,由智谱 AI 和清华大学 KEG 实验室联合发布,基于 General Language Model (GLM) 架构,具有 62 亿参数。ChatGLM3-6B 更是在保留了前两代模型对话流畅、部署门槛低等众多优秀特

    2024年01月18日
    浏览(81)
  • ChatGLM2-6B下载与部署

    我们首先来看一下 ChatGLM2-6B 模型的 requirements : 可以看到,要求 torch=2.0 ,这就产生了一个问题: torch 与 cuda 版本的匹配问题。本地机器中 CUDA=10.0 ,于是在费了半天时间配置好 ChatGLM2-6B 所需环境,从 github 和 huggingface 下载好了 ChatGLM2-6B 模型,但是在 run 的过程中报错 Torch

    2024年02月06日
    浏览(68)
  • 【私有GPT】CHATGLM-6B部署教程

    ChatGLM-6B是清华大学知识工程和数据挖掘小组(Knowledge Engineering Group (KEG) Data Mining at Tsinghua University)发布的一个开源的对话机器人。根据官方介绍,这是一个千亿参数规模的中英文语言模型。并且对中文做了优化。本次开源的版本是其60亿参数的小规模版本,约60亿参数,本地

    2024年02月12日
    浏览(42)
  • 学习实践ChatGLM-6B(部署+运行+微调)

    该模型基于 General Language Model (GLM) 架构,具有 62 亿参数。 注:结合模型量化技术,用户可以在消费级的显卡上进行本地部署(INT4 量化级别下最低只需 6GB 显存)。 ChatGLM-6B可以实现的能力这是一个对话机器人,所以基本的问答,系统都支持。 官方提供的使用实例: 自我认知

    2023年04月18日
    浏览(40)
  • AIGC - ChatGLM大模型:ChatGLM2-6B模型推理部署

    如果你要问我为什么直接部署ChatGLM2的模型? 因为当我在8月份在上海召开的全球人工智能大会上了解到清华-智谱发布的ChatGLM模型时,它已经发布了新的版本ChatGLM2,并且推理的效果提升了不少,那么本着只要最好的原则,我就直接上手先玩新版本了。 作为AIGC方面的小白来说

    2024年02月06日
    浏览(48)
  • 清华ChatGLM-6B本地GPU推理部署

    目录 1 简介 2 硬件需求 3 Demo和模型下载 3.1 安装Git LFS 3.2 Demo下载 3.3 模型下载 3.4 文件目录 4 环境安装 5 运行 5.1 FP16 5.2 量化 6 演示 ChatGLM-6B是一个开源的、支持中英双语的对话语言模型,基于General Language Model(GLM)架构,具有62亿参数。结合模型量化技术,用户可以在消费级

    2024年02月07日
    浏览(46)
  • ChatGLM-6B的windows本地部署使用

    ChartGPT最近特别火,但是收费,而且国内访问不太方便,所以找了个类似的进行学习使用 ChatGLM-6B,开源支持中英文的对话大模型,基于 General Language Model (GLM) 架构,具有62亿参数,简单说非常不错,可能和chart GPT比较有些差距,但是开源免费,并且可以在本地部署,支持中文

    2024年02月16日
    浏览(50)
  • 聊聊ChatGLM-6B部署与微调的深入理解

    ChatGLM的部署,主要是两个步骤: 在Github上下载chatglm的库文件 在Hugging Face上下载模型参数与配置文件 从Github上看ChatGLM项目文件的结构来看,仅仅是包含三种部署方式的py代码与微调的py代码 而相关的实现细节,比如神经网络、激活函数、损失函数等具体的实现,并不在该项

    2024年02月03日
    浏览(53)
  • 腾讯云部署清华大学ChatGLM-6B实战

    简介(来自官方) ChatGLM-6B 是一个开源的、支持中英双语的对话语言模型,基于 General Language Model (GLM) 架构,具有 62 亿参数。结合模型量化技术,用户可以在消费级的显卡上进行本地部署(INT4 量化级别下最低只需 6GB 显存)。 ChatGLM-6B 使用了和 ChatGPT 相似的技术,针对中文

    2024年02月11日
    浏览(49)
  • 清华大学开源的chatGLM-6B部署实战

    win10 通过wsl部署 常见问题: torch.cuda.OutOfMemoryError: CUDA out of memory. 在Windows的系统环境变量中增加 变量名: PYTORCH_CUDA_ALLOC_CONF 变量值: max_split_size_mb:32 文档书写时使用3090 24G显存配置,其他规格酌情调整 32 至其他值,如未设置变量默认值128极大概率导致 CUDA OOM 无法正常启动

    2024年02月04日
    浏览(58)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包