【AI】清华开源中英双语对话模型ChatGLM2-6B本地安装笔记

这篇具有很好参考价值的文章主要介绍了【AI】清华开源中英双语对话模型ChatGLM2-6B本地安装笔记。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

清华开源中英双语对话模型ChatGLM2-6B本地安装笔记

首先,直接上资源,网盘中是ChatGLM2-6B源码及模型文件:

链接:https://pan.baidu.com/s/1DciporsVT-eSiVIAeU-YmQ
提取码:cssa

官方的Readme已经很详尽了,再写点安装博客有点画蛇添足。本着记录自己的工作内容的初衷,还是写一写吧,毕竟输出才是最好的学习。

本文记录了本地安装ChatGLM2-6B的过程,本地是用了一张RTX4070 12G的显卡,对于这个模型有点勉强,但是在实际运行中发现Win11系统给了共享GPU存储,这让我这个12G的显卡也运行了13G的模型,目前看是能正常运行,没有爆显存的问题。官方也提供了int4的模型,可以在6G显存上运行起来,由于我这边已经运行起来了,所以没有在考虑使用int4模型。下图是我模型加载之后的GPU占用情况,就很神奇。。。

【AI】清华开源中英双语对话模型ChatGLM2-6B本地安装笔记,人工智能,ChatGLM2

1. Conda复制虚拟环境

conda creat -n new_env_name --copy old_env_name

创建ChatGLM运行环境,因为ChatGLM使用pytorch框架,所以使用Conda复制一个Pytorch的虚拟环境,以便在安装所需依赖完成之后不会对其他环境依赖造成破坏。

2. 添加PIP镜像源

由于安装依赖需要使用pip,为加速访问,所以配置PIP镜像源

配置PIP镜像源要切换到对应的虚拟环境上,如conda activate chatglm2

pip config set global.index-url https://pypi.tuna.tsinghua.edu.cn/simple

另外,还有其他镜像源可供使用

阿里云 https://mirrors.aliyun.com/pypi/simple/
豆瓣 http://pypi.douban.com/simple/
清华大学 https://pypi.tuna.tsinghua.edu.cn/simple/
中国科学技术大学 http://pypi.mirrors.ustc.edu.cn/simple/

Conda配置镜像源的工作在之前的Pytorch安装中已经写过了,可以参考。

3. 下载代码

  1. Github上克隆代码
git clone https://github.com/lordum/ChatGLM2-6B.git

4. 下载模型

启动模型的过程中,程序会自动去Huging Face官网下载模型bin文件,但是由于网络的原因,很可能会下载失败,官方提供了一个清华的下载地址(https://cloud.tsinghua.edu.cn/d/674208019e314311ab5c/),但是这个地址只有模型,很多配置文件会找不到,需要去Hugging Face官网下载(https://huggingface.co/THUDM/chatglm2-6b/tree/main);如果直接运行可能会遇到下面的问题1所列的问题。我这边将所有的文件打包,放在百度网盘上(链接:https://pan.baidu.com/s/1DciporsVT-eSiVIAeU-YmQ 提取码:cssa ),需要的可以自取。

下载完之后将model目录下面的模型及配置文件全部拷贝到代码目录下面,不需要新建文件夹之类的,直接和原有代码放在一块就好了。

5.依赖安装

首先是安装requirement,requirement.txt中的依赖可以根据自己环境进行调整,比如我这边由于复制了pytorch的环境,可以将其中的pytorch行删除。这里pip安装也是用的国内镜像源,可以大幅提高安装速度,前面已经介绍了添加方式。

官方推荐了 transformers 库版本推荐为 4.30.2torch 推荐使用 2.0 以上的版本,以获得最佳的推理性能。

pip install -r requirements.txt

6.应用

官方文档提供了多种应用方法,我们一般选择web界面运行,官方代码中提供了两个web_demo,web_demo.py是一问一答形式了,答案是统一给出的,web_demo2.py是流式回答,答案是流式传输的。需要注意的是,两种方式都要安装必要的依赖;为了更贴近实用,我们选择web_demo2.py来运行。

@AdamBear 实现了基于 Streamlit 的网页版 Demo web_demo2.py。使用时首先需要额外安装以下依赖:

pip install streamlit streamlit-chat

模型运行默认去Hugging Face上去拉取模型文件,如果使用本地的文件,需要修改一下模型加载语句:

【AI】清华开源中英双语对话模型ChatGLM2-6B本地安装笔记,人工智能,ChatGLM2

将15、16行改成本地代码路径就可以加载了

然后通过以下命令运行:

streamlit run web_demo2.py

经测试,如果输入的 prompt 较长的话,使用基于 Streamlit 的网页版 Demo 会更流畅。

【AI】清华开源中英双语对话模型ChatGLM2-6B本地安装笔记,人工智能,ChatGLM2

【AI】清华开源中英双语对话模型ChatGLM2-6B本地安装笔记,人工智能,ChatGLM2

安装遇到的问题

1. ValueError: Unrecognized configuration class <class ‘transformers_modules.chatglm-6b.co

问题描述
在部署ChatGLM过程中,出现了如下bug信息。
ValueError: Unrecognized configuration class <class ‘transformers_modules.chatglm-6b.configuration_chatglm.ChatGLMConfig’> to build an AutoTokenizer.

问题原因
我是通过清华云盘下载的模型参数(具体情况如下),里面缺失了很多重要的配置文件。

【AI】清华开源中英双语对话模型ChatGLM2-6B本地安装笔记,人工智能,ChatGLM2

解决方案

可以通过Hagging Face官网下载完整的配置文件,然后将其放在与模型参数相同的位置。

https://huggingface.co/THUDM/chatglm2-6b/tree/main

【AI】清华开源中英双语对话模型ChatGLM2-6B本地安装笔记,人工智能,ChatGLM2

参考文章:https://blog.csdn.net/weixin_40964597/article/details/131074884文章来源地址https://www.toymoban.com/news/detail-602622.html

到了这里,关于【AI】清华开源中英双语对话模型ChatGLM2-6B本地安装笔记的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 开源双语对话语言模型 ChatGLM-6B 本地私有化部署

    本文首发于:https://www.licorne.ink/2023/08/llm-chatglm-6b-local-deploy/ ChatGLM-6B 是一个开源的、支持中英双语的对话语言模型,基于 General Language Model (GLM) 架构,具有 62 亿参数。结合模型量化技术,用户可以在消费级的显卡上进行本地部署(INT4 量化级别下最低只需 6GB 显存)。 ChatGL

    2024年02月10日
    浏览(73)
  • 清华大学开源ChatGLM2-6B开源模型在anaconda下的虚拟环境详细部署及安装教程

    python版本要求:3.8以上 没有安装python的没有关系,我们在下面安装anaconda中会自动生成python,有了python的建议删除,通过anaconda安装python以便于后面创建虚拟环境。 windows系统:Windows 10 以上,推荐N卡(NVIDIA显卡20系列以上) 注意:处理器为AMD容易报错,intel的不容易报错,配

    2024年02月16日
    浏览(89)
  • 中英双语大模型ChatGLM论文阅读笔记

    论文传送门: [1] GLM: General Language Model Pretraining with Autoregressive Blank Infilling [2] Glm-130b: An open bilingual pre-trained model Github链接: THUDM/ChatGLM-6B GLM-130B 和 GPT-3 175B(davinci) 相比,参数量减少,但性能提升了。 INT4 quantization without post training INT4量化是一种将模型的权重和激活从使用

    2024年02月02日
    浏览(48)
  • AI模型部署记录(一)-ChatGLM:清华开源本地部署(2023/05/06更新)

    文章首发及后续更新:https://mwhls.top/4500.html,无图/无目录/格式错误/更多相关请至首发页查看。 新的更新内容请到mwhls.top查看。 欢迎提出任何疑问及批评,非常感谢! 服务部署汇总 本来这篇是为了打比赛写的,写着写着发现两个问题,AI部署连续几篇,等我比赛打完再发模

    2024年02月03日
    浏览(42)
  • AI 智能对话 - 基于 ChatGLM2-6B 训练对话知识库

    前情提要 怎么将 AI 应用到工作中呢?比如让 AI 帮忙写代码,自己通过工程上的思维将代码整合排版,我挺烦什么代码逻辑严谨性的问题,但是我又不得不承认这样的好处,我们要开始将角色转换出来,不应该是一个工具人,而成为决策者,这是从 AI 爆发中看到的发展趋势,

    2024年02月12日
    浏览(49)
  • Python:清华ChatGLM-6B中文对话模型部署

    1、简介 ChatGLM-6B 是一个开源的、支持中英双语的对话语言模型,基于 General Language Model (GLM) 架构,具有 62 亿参数。结合模型量化技术,用户可以在消费级的显卡上进行本地部署(INT4 量化级别下最低只需 6GB 显存)。 ChatGLM-6B 使用了和 ChatGPT 相似的技术,针对中文问答和对话

    2024年02月08日
    浏览(48)
  • 人工智能_CPU安装运行ChatGLM大模型_安装清华开源人工智能AI大模型ChatGlm-6B_004---人工智能工作笔记0099

    上一节003节我们安装到最后,本来大模型都可以回答问题了,结果, 5分钟后给出提示,需要GPU,我去..继续看官网,如何配置CPU运行  没办法继续看: 这里是官网可以看到  需要gcc的版本是11.3.0,这里我们先没有去安装,直接试试再说 yum install epel-release yum install gcc-11.3.0 安装的话执行这

    2024年02月21日
    浏览(66)
  • 离线生成双语字幕,一键生成中英双语字幕,基于AI大模型,ModelScope

    离线生成双语字幕整合包,一键生成中英双语字幕,基于AI大模型 制作双语字幕的方案网上有很多,林林总总,不一而足。制作双语字幕的原理也极其简单,无非就是人声背景音分离、语音转文字、文字翻译,最后就是字幕文件的合并,但美中不足之处这些环节中需要接口api的

    2024年02月21日
    浏览(43)
  • 最强开源中英双语大模型发布,340亿参数超越Llama2-70B !

        Aquila2模型全系开源地址: https://github.com/FlagAI-Open/Aquila2 https://model.baai.ac.cn/ https://huggingface.co/BAAI Aquila2-34B在代码生成、考试、理解、推理、语言四个维度的22个评测基准上,霸占了多个榜单TOP 1。  相较于大模型榜单分数,业内更看重对推理、泛化等重要模型实际能力的

    2024年01月24日
    浏览(54)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包