ChatGLM3在windows上部署

这篇具有很好参考价值的文章主要介绍了ChatGLM3在windows上部署。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

1 项目地址

https://github.com/THUDM/ChatGLM3
简介:ChatGLM3 是智谱AI和清华大学 KEG 实验室联合发布的新一代对话预训练模型。

2 本机配置

台式机:
CPU:    Intel(R) Core(TM) i7-10700F
RAM:    32G
GPU:    NVIDIA RTX3060(显存12G)
OS:    Windows 10 企业版

3 部署环境

3.1 使用anaconda3进行虚拟环境管理

3.1.1  安装和配置anaconda3

a.下载地址
anaconda3下载(推荐使用镜像源)
https://mirrors.tuna.tsinghua.edu.cn/anaconda/archive/

b.安装
双击安装。我的安装路径:D:\worksoft\anaconda3

c. 配置环境变量
path 中添加环境变量:
D:\worksoft\anaconda3
D:\worksoft\anaconda3\Scripts
D:\worksoft\anaconda3\Library\mingw-w64\bin

3.1.2 操作虚拟环境:

在powershell的命令行中操作(当然也pycharm的terminal中操作,下文有讲解)
打开powershell的命令行窗口

a.创建虚拟环境

conda create -n ChatGML3 python=3.11
注:这里指定了python的版本,你也可以不指定。如:conda create -n ChatGML3 这样的话,就使用anaconda自带的python版本

b.激活
conda activate ChatGML3

c.退出虚拟环境
conda deactivate

d.删除虚拟环境
conda remove -n ChatGML3 

3.2 配置git命令运行环境

无论是GitHub还是Hugging Face,都是使用git进行克隆比较方便。 另外一个非常重要一点的,在windows运行一些命令行,需要用git中的sh.exe组件的。所以这里需要安装git

git下载,
https://git-scm.com/
自行下载和安装。这里就不在详解了;

3.3 安装显卡驱动,以及CUDA计算工具

a.显卡信息查看
pytorch安装和显卡驱动版本有关,所以需要先检查显卡驱动版本,可以用命令查看
nvidia-smi

chatglm3 cpu,windows,ChatGML3,大模型

b.查看驱动
可以到网址https://docs.nvidia.com/cuda/cuda-toolkit-release-notes/index.html查看支持的CUDA版本

chatglm3 cpu,windows,ChatGML3,大模型

c.安装数据处理工具pytorch
pytorch安装,直接到官网https://pytorch.org/选择conda或者pip,并复制代码安装即可

chatglm3 cpu,windows,ChatGML3,大模型

我这里是anaconda环境的。cuda的版本是11.8
conda install pytorch torchvision torchaudio pytorch-cuda=11.8 -c pytorch -c nvidia

d.检查cuda驱动是否安装成功
conda activate ChatGML3  # 已经在虚拟环境下就不用运行这行
python  # 进入python
import torch  # 引入库
torch.cuda.is_available()  # 查看cuda是否可用。如果为TRUE为驱动正常
exit()  # 退出python

4 项目部署

4.1 下载ChatGLM3项目并安装依赖

cd F:\ai\
git clone https://github.com/THUDM/ChatGLM3  # 从GitHub仓库克隆
cd ChatGLM3  # 转到已经下载好的文件目录中
pip install -r requirements.txt  # 安装依赖

4.2 下载模型

git lfs install  # 验证一下lfs是否安装正确
git clone https://huggingface.co/THUDM/chatglm3-6b  # 下载模型

注:如果下载的慢的话,可以去魔塔社区去下载(https://modelscope.cn/)

5 项目运行

管理员模式运行Anaconda Powershell,激活env,转到ChatGLM3中,运行basic_demo文件夹内的cli_demo.py(需要终止时可以用Ctrl+C中断python)文章来源地址https://www.toymoban.com/news/detail-806653.html

conda activate ChatGLM3
cd F:\ai\ChatGLM3
python .\basic_demo\cli_demo.py  # 运行当前文件夹下的basic_demo\cli_demo.py

到了这里,关于ChatGLM3在windows上部署的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 部署一个本地的聊天机器人-基于ChatGLM3

    理论上来说 8G及以上显存的英伟达GPU 笔者的设备 RTX 4060Ti (16G显存) Archlinux Python 3.10.10 ChatGLM3 代码版本 33953b119e7 ChatGLM3 是智谱AI几周前才开源的模型, 6B大小的话只是个人用的话算是完全免费的. 这个相比之前的2感觉是prompt优化了一些(不过也复杂了一些), 可以直接用来让机器人

    2024年02月05日
    浏览(50)
  • 昇腾910b部署Chatglm3-6b进行流式输出【pytorch框架】NPU推理

    配套软件包Ascend-cann-toolkit和Ascend-cann-nnae 适配昇腾的Pytorch 适配昇腾的Torchvision Adapter 下载ChatGLM3代码 下载chatglm3-6b模型,或在modelscope里下载 每个人的服务器都不一样,在ChatGLM3/issues中别人只需要修改指定驱动,但是我的不行 删除模型文件包中的model.safetensors.index.json,否则加

    2024年01月21日
    浏览(73)
  • AI-基于Langchain-Chatchat和chatglm3-6b部署私有本地知识库

    手把手教你搭建本地知识库问答AI机器人 LangChain-Chatchat:基于LangChain和ChatGLM2-6B构建本地离线私有化知识库 在家庭私有云上部署体验语言模型chatglm3-6b,打造私人助理 手把手教大家在本地运行ChatGLM3-6B大模型(一) 自从去年GPT模型火爆以来,降低了很多个人和企业进入人工智

    2024年02月20日
    浏览(65)
  • 英特尔集成显卡+ChatGLM3大语言模型的企业本地AI知识库部署

    作者: 英特尔创新大使 刘力 英特尔开发者技术推广经理 李翊玮     在当今的企业环境中,信息的快速获取和处理对于企业的成功至关重要。为了满足这一需求,我们可以将RAG技术与企业本地知识库相结合,以提供实时的、自动生成的信息处理和决策支持。这将有助于企业

    2024年04月26日
    浏览(52)
  • Windows环境下清华ChatGLM3+docker-desktop镜像制作和配置GPU环境docker容器本地运行

    (1)下载或git拉取ChatGLM3镜像   拉取镜像,配置环境在此文就不多赘述   git clone https://github.com/THUDM/ChatGLM3.git (2)docker-desktop的安装 这里引用这位大佬的文章,讲的很详细

    2024年02月19日
    浏览(64)
  • ChatGLM3 模型学习与实战

    Github 代码 : https://github.com/THUDM/ChatGLM3 模型地址: huggingface : https://huggingface.co/THUDM/chatglm3-6b modelscope : https://modelscope.cn/models/ZhipuAI/chatglm3-6b/summary 智谱AI于27日论坛上推出了全自研的第三代基座大模型ChatGLM3及相关系列产品,这也是智谱AI继推出千亿基座的对话模型ChatGLM和

    2024年02月08日
    浏览(34)
  • 从零开始部署ubuntu+Anaconda3+langchain-chatchat+chatglm3-6b大模型,本地知识库(二)

    接上文:从零开始部署ubuntu+Anaconda3+langchain-chatchat+chatglm3-6b大模型,本地知识库 Langchain-chatchat 0.2.10 推荐使用python3.11.7,通过下面命令进行python环境创建。 如下图 安装完毕后,通过以下命令激活python虚拟环境 如下图,shell命令行前面会出现(langchain)这个虚拟环境名。 转到

    2024年03月21日
    浏览(59)
  • ChatGLM3-6B的本地api调用

    1.运行openai_api_demo路径下的openai_api.py 启动后界面: 注意:本地api调到的前提是——本地部署了ChatGLM3-6B,本地部署的教程可参考: 20分钟部署ChatGLM3-6B 部署了若CUDA可用,默认会以CUDA方式运行,占用显存约5.9G;若CUDA不可用,则会以内存方式进行加载,官方称CPU调用需要32G内存

    2024年01月21日
    浏览(55)
  • 从零开始部署ubuntu+Anaconda3+langchain-chatchat+chatglm3-6b大模型,本地知识库(完结篇)

    相关文章: 从零开始部署ubuntu+Anaconda3+langchain-chatchat+chatglm3-6b大模型,本地知识库(一) https://blog.csdn.net/hya168/article/details/131460230 从零开始部署ubuntu+Anaconda3+langchain-chatchat+chatglm3-6b大模型,本地知识库(二) https://blog.csdn.net/hya168/article/details/135870440 生成默认配置文件 此命令

    2024年02月20日
    浏览(67)
  • 使用vLLM和ChatGLM3-6b批量推理

    当数据量大的时候,比如百万级别,使用 ChatGLM3-6b 推理的速度是很慢的。发现使用 vLLM 和 ChatGLM3-6b 批量推理极大的提高了推理效率。本文主要通过一个简单的例子进行实践。 除了 Python(本文使用 3.11)、CUDA(本文使用 11.8)外,还要安装 vllm、pytorch、xformers 等库,特别注意

    2024年02月04日
    浏览(58)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包