小白也会的在colab上部署Chatglm的详细教程

这篇具有很好参考价值的文章主要介绍了小白也会的在colab上部署Chatglm的详细教程。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

如果觉得本篇文章对你有帮助的话请点赞关注加收藏吧!

(默认你有colab,如果没有去看一下如何使用colab,很简单)
首先你需要在colab上挂载谷歌硬盘为了保存你上传好的代码,如果不挂载谷歌硬盘的话就会导致下次你需要重新上传你的文件夹
小白也会的在colab上部署Chatglm的详细教程点击第三个图标就是挂载你的谷歌硬盘。
然后需要用到以下命令进入到你的谷歌硬盘下(因为我们要把代码放到谷歌硬盘里,以后任何通过命令上传到谷歌硬盘的文件也是同样的操作)

%cd /content/drive/MyDrive

补充一点在此之前要查看colab的gpu显存是否足够,chatglm需要6-7g的显存,查看gpu显存命令

!nvidia-smi

小白也会的在colab上部署Chatglm的详细教程memory-usage为它的显存大小

第二我们需要在github上下载chatglm的项目,需要用到以下命令

!git clone https://github.com/THUDM/ChatGLM-6B.git

下载完项目之后我们需要在项目的主文件夹下新建一个model文件来存放chatglm的模型文件,只需要右击主项目文件夹新建即可,如图
小白也会的在colab上部署Chatglm的详细教程
然后新建完model文件夹之后,我们需要进入model文件夹下去下载我们的模型文件,进入model文件夹的命令如下

%cd /content/drive/MyDrive/ChatGLM-6B/model

进入文件夹下之后按照如下命令将文件下载到model文件夹下

!wget https://huggingface.co/THUDM/chatglm-6b-int4/resolve/main/LICENSE
!wget https://huggingface.co/THUDM/chatglm-6b-int4/resolve/main/MODEL_LICENSE
!wget https://huggingface.co/THUDM/chatglm-6b-int4/resolve/main/README.md
!wget https://huggingface.co/THUDM/chatglm-6b-int4/resolve/main/config.json
!wget https://huggingface.co/THUDM/chatglm-6b-int4/resolve/main/configuration_chatglm.py
!wget https://huggingface.co/THUDM/chatglm-6b-int4/resolve/main/modeling_chatglm.py
!wget https://huggingface.co/THUDM/chatglm-6b-int4/resolve/main/quantization.py
!wget https://huggingface.co/THUDM/chatglm-6b-int4/resolve/main/ice_text.model
!wget https://huggingface.co/THUDM/chatglm-6b-int4/resolve/main/quantization_kernels.c
!wget https://huggingface.co/THUDM/chatglm-6b-int4/resolve/main/quantization_kernels_parallel.c
!wget https://huggingface.co/THUDM/chatglm-6b-int4/resolve/main/tokenization_chatglm.py
!wget https://huggingface.co/THUDM/chatglm-6b-int4/resolve/main/tokenizer_config.json
!wget https://huggingface.co/THUDM/chatglm-6b-int4/resolve/main/pytorch_model.bin
!wget https://huggingface.co/THUDM/chatglm-6b-int4/resolve/main/.gitattributes

然后我们需要进入到chatGLM-6B文件夹下去配置我们的运行环境

%cd /content/drive/MyDrive/ChatGLM-6B
!pip install protobuf==3.20.0 transformers==4.27.1 icetk cpm_kernels
!pip install -r requirements.txt

以上操作成功之后就可以测试一下我们的部署是否成功了(运行过程会有点慢,请慢慢等待,大概20多分钟)

from transformers import AutoTokenizer, AutoModel
tokenizer = AutoTokenizer.from_pretrained("model", trust_remote_code=True)
model = AutoModel.from_pretrained("model", trust_remote_code=True).float()
response, history = model.chat(tokenizer, "你好", history=[])
print(response)
response, history = model.chat(tokenizer, "晚上睡不着应该怎么办", history=history)
print(response)

小白也会的在colab上部署Chatglm的详细教程
如果有问题的话请评论区留言,如果对你有帮助的话就请点赞关注加收藏哦!

参考文章
清华 ChatGLM-6B 中文对话模型部署简易教程https://blog.csdn.net/qq_43475750/article/details/129665389?spm=1001.2014.3001.5506文章来源地址https://www.toymoban.com/news/detail-479106.html

到了这里,关于小白也会的在colab上部署Chatglm的详细教程的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • (二)ChatGLM-6B模型部署以及ptuning微调详细教程

    下面是官方原话, 选择他的原因完全是因为可以消费级电脑上使用,更强的130B模型看https://github.com/THUDM/GLM-130B ChatGLM-6B 是一个 开源 的、支持 中英双语 的对话语言模型,基于 General Language Model (GLM) 架构,具有 62 亿参数。结合 模型量化 技术,用户可以在 消费级的显卡 上进行

    2024年02月07日
    浏览(48)
  • 清华大学开源ChatGLM2-6B开源模型在anaconda下的虚拟环境详细部署及安装教程

    python版本要求:3.8以上 没有安装python的没有关系,我们在下面安装anaconda中会自动生成python,有了python的建议删除,通过anaconda安装python以便于后面创建虚拟环境。 windows系统:Windows 10 以上,推荐N卡(NVIDIA显卡20系列以上) 注意:处理器为AMD容易报错,intel的不容易报错,配

    2024年02月16日
    浏览(89)
  • Colab使用教程(超级详细版)及Colab Pro/Pro+评测

    原文:Colab使用教程(超级详细版)及Colab Pro/Pro+评测 - 知乎 在下半年选修了机器学习的关键课程Machine learning and deep learning,但由于Macbook Pro显卡不支持cuda,因此无法使用GPU来训练网络。教授推荐使用Google Colab作为训练神经网络的平台。在高强度的使用了Colab一段时间后,我

    2024年04月22日
    浏览(30)
  • 【私有GPT】CHATGLM-6B部署教程

    ChatGLM-6B是清华大学知识工程和数据挖掘小组(Knowledge Engineering Group (KEG) Data Mining at Tsinghua University)发布的一个开源的对话机器人。根据官方介绍,这是一个千亿参数规模的中英文语言模型。并且对中文做了优化。本次开源的版本是其60亿参数的小规模版本,约60亿参数,本地

    2024年02月12日
    浏览(43)
  • 在Win11上部署ChatGLM3详细步骤

    023年10月27日,智谱AI于2023中国计算机大会(CNCC)上,推出了全自研的第三代基座大模型ChatGLM3及相关系列产品,这也是智谱AI继推出千亿基座的对话模型ChatGLM和ChatGLM2之后的又一次重大突破。此次推出的ChatGLM3采用了独创的多阶段增强预训练方法,使训练更为充分。评测显示

    2024年02月07日
    浏览(62)
  • 【超详细教程】无需配置环境 | colab直接运行Stable Diffusion web UI并从civitai中导入lora模型

    stable diffusion web ui地址 https://github.com/AUTOMATIC1111/stable-diffusion-webui 在项目readme里面找到Installation and Running,可以用colab在线使用,无需配置环境**(前提是可以连上Google)** 点击List of Online Services 跳转到有多种不同人维护的colab在线仓库 地址给到下面 这里我们选择第二个maint

    2023年04月09日
    浏览(47)
  • 【ChatGLM】本地版ChatGPT ?6G显存即可轻松使用 !ChatGLM-6B 清华开源模型本地部署教程

    目录 感谢B站秋葉aaaki大佬 前言 部署资源 部署流程  实机演示 ChatGML微调(人格炼成)(个人感觉蛮有趣的地方)  分享有趣の微调人格  实机演示(潘金莲人格) 秋葉aaaki的个人空间_哔哩哔哩_bilibili https://space.bilibili.com/12566101 由于ChatGLM-6B的规模较小,目前已知其具有相当

    2024年02月06日
    浏览(51)
  • Centos/Ubuntu离线部署清华chatGLM(特别详细,十分钟搞定)

    引言 前段时间,清华公布了中英双语对话模型 ChatGLM-6B,具有60亿的参数,初具问答和对话功能。最!最!最重要的是它能够支持私有化部署,大部分实验室的服务器基本上都能跑起来。因为条件特殊,实验室网络不通,那么如何进行离线部署呢?经过一下午的折腾终于搞定

    2023年04月20日
    浏览(59)
  • ChatGLM-6B 在 ModelWhale和本地 平台的部署与微调教程

    ChatGLM-6B 是一个开源的、支持中英双语的对话语言模型,基于 General Language Model (GLM) 架构,具有 62 亿参数。结合模型量化技术,用户可以在消费级的显卡上进行本地部署(INT4 量化级别下最低只需 6GB 显存)。 ChatGLM-6B 使用了和 ChatGPT 相似的技术,针对中文问答和对话进行了优

    2024年02月09日
    浏览(43)
  • 基于chatGLM-6B模型微调详细教程(linux版)(ptuning & lora)

    目录 准备工作 安装7z ptuning预训练 ChatGLM-6B-Ptuning.7z 懒人包下载 上传文件并解压缩 拉取依赖 进行训练 启动服务 注意事项(揽睿星舟云算力平台) lora预训练 chatGLM-All-In-One.7z 懒人包下载 上传文件并解压缩 拉取依赖 进行训练 启动服务 注意事项(揽睿星舟云算力平台) 展示

    2024年02月09日
    浏览(57)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包