两小时搭建自己的ChatGPT(ChatGLM)免硬件

这篇具有很好参考价值的文章主要介绍了两小时搭建自己的ChatGPT(ChatGLM)免硬件。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

目录

准备(注册):

搭建:

API模式:

测试:

总结:


准备硬件(注册):

注册modelscope(底层阿里云)免费使用服务器

https://modelscope.cn/

按照图片里的选择(选择其他好像不能创建成功)

两小时搭建自己的ChatGPT(ChatGLM)免硬件

可以白嫖60多个小时的配置

8核 32GB 显存16G
预装 ModelScope Library
预装镜像 ubuntu20.04-cuda11.3.0-py37-torch1.11.0-tf1.15.5-1.5.0

ChatGLM-6B介绍

ChatGLM-6B 是一个开源的、支持中英双语的对话语言模型,基于 General Language Model (GLM) 架构,具有 62 亿参数。

硬件需求

量化等级 最低 GPU 显存(推理) 最低 GPU 显存(高效参数微调)
FP16(无量化) 13 GB 14 GB
INT8 8 GB 9 GB
INT4 6 GB 7 GB

搭建:

https://github.com/THUDM/ChatGLM-6B#代码调用

按照官网提示操作即可

>>> from transformers import AutoTokenizer, AutoModel
>>> tokenizer = AutoTokenizer.from_pretrained("THUDM/chatglm-6b", trust_remote_code=True)
>>> model = AutoModel.from_pretrained("THUDM/chatglm-6b", trust_remote_code=True).half().cuda()
>>> model = model.eval()
>>> response, history = model.chat(tokenizer, "你好", history=[])
>>> print(response)
你好👋!我是人工智能助手 ChatGLM-6B,很高兴见到你,欢迎问我任何问题。
>>> response, history = model.chat(tokenizer, "晚上睡不着应该怎么办", history=history)
>>> print(response)
晚上睡不着可能会让你感到焦虑或不舒服,但以下是一些可以帮助你入睡的方法:

1. 制定规律的睡眠时间表:保持规律的睡眠时间表可以帮助你建立健康的睡眠习惯,使你更容易入睡。尽量在每天的相同时间上床,并在同一时间起床。
2. 创造一个舒适的睡眠环境:确保睡眠环境舒适,安静,黑暗且温度适宜。可以使用舒适的床上用品,并保持房间通风。
3. 放松身心:在睡前做些放松的活动,例如泡个热水澡,听些轻柔的音乐,阅读一些有趣的书籍等,有助于缓解紧张和焦虑,使你更容易入睡。
4. 避免饮用含有咖啡因的饮料:咖啡因是一种刺激性物质,会影响你的睡眠质量。尽量避免在睡前饮用含有咖啡因的饮料,例如咖啡,茶和可乐。
5. 避免在床上做与睡眠无关的事情:在床上做些与睡眠无关的事情,例如看电影,玩游戏或工作等,可能会干扰你的睡眠。
6. 尝试呼吸技巧:深呼吸是一种放松技巧,可以帮助你缓解紧张和焦虑,使你更容易入睡。试着慢慢吸气,保持几秒钟,然后缓慢呼气。

如果这些方法无法帮助你入睡,你可以考虑咨询医生或睡眠专家,寻求进一步的建议。

解释

from transformers import AutoTokenizer, AutoModel:这是从transformers库中导入AutoTokenizer和AutoModel类。

tokenizer = AutoTokenizer.from_pretrained("THUDM/chatglm-6b", trust_remote_code=True):这一行代码通过调用AutoTokenizer类的from_pretrained方法,从“THUDM/chatglm-6b”模型地址中下载并加载对应的tokenizer。该tokenizer是用于将文本转换为模型可以处理的输入向量。

model = AutoModel.from_pretrained("THUDM/chatglm-6b", trust_remote_code=True).half().cuda():这一行代码通过调用AutoModel类的from_pretrained方法,从“THUDM/chatglm-6b”模型地址中下载并加载对应的模型。同时,它还将模型转换为半精度浮点数(half)和CUDA张量(cuda)。这些操作有助于提高模型的计算速度和性能。

model = model.eval():这一行代码将模型设置为推理模式,即禁用dropout和batch normalization等训练时使用的技巧。这有助于提高模型在测试和实际应用中的准确性。

其中 下载需要漫长的等待

tokenizer = AutoTokenizer.from_pretrained("THUDM/chatglm-6b", trust_remote_code=True):

两小时搭建自己的ChatGPT(ChatGLM)免硬件

测试安装

两小时搭建自己的ChatGPT(ChatGLM)免硬件

API模式:

官网参考这段

GitHub - THUDM/ChatGLM-6B: ChatGLM-6B: An Open Bilingual Dialogue Language Model | 开源双语对话语言模型文章来源地址https://www.toymoban.com/news/detail-461916.html

git clone https://github.com/THUDM/ChatGLM-6B

cd ChatGLM-6B



pip install fastapi uvicorn



python api.py



测试:

curl -X POST "http://127.0.0.1:8000" -H 'Content-Type: application/json' -d '{"prompt": "我叫daniel,给我写本书", "history": []}'

遇到的问题

异常1:
RuntimeError: CUDA Error: no kernel image is available for execution on the device
>>> model = model.quantize()
╭─────────────────────────────── Traceback (most recent call last) ────────────────────────────────╮
│ in <module>:1                                                                                    │
╰──────────────────────────────────────────────────────────────────────────────────────────────────╯
TypeError: quantize() missing 1 required positional argument: 'bits'


model = model.quantize(4)
改成

model = model.quantize(128)


异常2:

root@eais-bjtryzm9xivr28qvprxr-7c8cfdfd44-2j4rx:/mnt/workspace/ChatGLM-6B/ptuning# bash train.sh
Traceback (most recent call last):
  File "main.py", line 29, in <module>
    from rouge_chinese import Rouge
ModuleNotFoundError: No module named 'rouge_chinese'

 安装依赖解决 : pip install rouge_chinese nltk jieba datasets

异常3: 
 RuntimeError: CUDA Error: no kernel image is available for execution on the device
“调整 quantization_bit 来被原始模型的量化等级,不加此选项则为 FP16 精度加载”

bash train.sh
cp   train.sh train_bak.sh

vi train.sh
删除   --quantization_bit 4

异常4:
pip install cpm_kernels

ImportError: This modeling file requires the following packages that were not found in your environment: cpm_kernels. Run `pip install cpm_kernels`


 

总结:

ChatGLM 完全傻瓜式的教程,按照官网操作就行了。

ModelScope太给力了,本来都打算自己买机器运行了,正好有使用的机会。

自己windows11 GTX3060 12g 显卡也不能运行完成的项目

参考资料:

ModelScope 魔搭社区

GitHub - THUDM/ChatGLM-6B: ChatGLM-6B: An Open Bilingual Dialogue Language Model | 开源双语对话语言模型

到了这里,关于两小时搭建自己的ChatGPT(ChatGLM)免硬件的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 【ChatGLM】在电脑部署属于自己的人工智能/ChatGPT平替/可离线/可发布

    本文能实现在自己的电脑或云服务器上部署属于自己的语言AI——ChatGLM-6B,可以离线使用,也可以生成web网页在线发给朋友尝试。 ChatGLM-6B 是一个由清华大学的团队开源的、支持中英双语问答的对话语言模型,基于 General Language Model (GLM) 架构,具有 62 亿参数。本文旨在介绍如

    2023年04月16日
    浏览(44)
  • 云服务器部署开源ChatGLM-6B,让你也能拥有自己的ChatGPT

    一、背景 最近GPT不仅发布了GPT-4,而且解除封印可以联网了。不得不赞叹AI更新迭代的速度真快,都跟不上节奏了。但是大家也注意到了吧,随着GPT的每次更新,OpenAI对其开放使用的限制也越来越大。之前国内网随便访问GPT3,现在动不动就封号 所以,今天就来教大家部署国内

    2024年02月12日
    浏览(53)
  • 手把手教你怎么搭建自己的AI数字人直播间?帮你24小时不间断直播卖货

    在搭建AI数字人直播间之前,您需要了解数字人技术。 数字人是一种由人工智能技术构建的虚拟人物,其外貌、行为、语言等特征与真实人物相似,可以与人进行互动。数字人可以通过语音合成、人脸识别、情感识别等技术来实现与观众的交互。数字人直播间是使用现有的技

    2024年02月05日
    浏览(167)
  • obswebsocket+douyinAPI+python,教你如何三步搭建自己的AI美女直播间,24小时的永动机

    就是在直播的时候通过弹幕进行选择不同的ai人物进行跳舞的直播间大致就是 可以看到左边是有提示,根据观众刷礼物的不同进行选择某一个AI人物进行展示,怎么通过技术手段实现呢 其实还是很简单的,基本就是python+obs直播软件进行实现,大致过程就是python连接抖音的直播

    2024年01月17日
    浏览(118)
  • LLM - 基于 ChatGLM-6B 的工程配置搭建私有 ChatGPT 中文在线聊天

    欢迎关注我的CSDN:https://spike.blog.csdn.net/ 本文地址:https://blog.csdn.net/caroline_wendy/article/details/131104546 Paper: GLM: General Language Model Pretraining with Autoregressive Blank Infilling ChatGLM是通用的预训练语言模型(General Language Pretraining Model),基于自回归空格填充(Autoregressive Blank Infilling)

    2024年02月09日
    浏览(65)
  • 如何搭建自己的chatgpt

    搭建自己的ChatGPT需要进行以下步骤: 收集语料库:ChatGPT需要大量的语料库来进行训练,可通过爬虫技术收集互联网上的聊天记录、社交媒体上的对话等。 数据清洗和预处理:对收集到的数据进行清洗和预处理,如去除无用的字符、标点符号、转化为小写等。 模型训练:使

    2024年02月16日
    浏览(38)
  • GPT 学术优化 (ChatGPT Academic)搭建过程(含ChatGLM cuda INT4量化环境和newbing cookie)

    1、GPT Academic 项目地址:地址 安装部分 2、chatGPT API_KEY的获取可以在openai账号里找到,注册也不必多说了 配置的话,改一下config中的几个地方就可以用了,注意http和https不要打错了。 具体报错可以参考官方的配置 看到额度没有了,其实就算是配置成功了 3、chatGLM 我开始是拿

    2024年02月07日
    浏览(42)
  • 在笔记本上搭建一个属于自己的ChatGPT

    随着ChatGPT的流行,许多开发者想要尝试搭建一个ChatGPT服务,本文对如何在电脑上搭建进行入门。 1.安装Python和必要的库 首先,需要在你的笔记本上安装Python和必要的库。你可以从Python官方网站(https://www.python.org/downloads/)下载最新版本的Python,然后使用pip安装以下必要的库

    2024年02月11日
    浏览(45)
  • 一个开源免费功能强大的Chatgpt Web程序 搭建自己的Chatgpt机器人

    ChatGPT Web Midjourney Proxy 是我用过的几款ChatGPT Web程序当中我觉得最好用的一款,还支持midjourney的图片生成 ai换脸和很多的ChatGPT store。 ✅ 原chatgpt web 所有功能 ✅ chatgpt web 支持自定义api key、base_url ✅ midjourney 文生图 ✅ midjourney 垫图+文生图 ✅ midjourney 图变 U1到U4 、 V1到V4、重绘

    2024年03月23日
    浏览(51)
  • 零基础快速搭建自己的ChatGPT服务,配套小程序,后台管理端

    提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档 国内的chatgpt如雨后春笋,层出不穷,各有千秋,但是大多套路都如出一辙,不是让看广告就是关注各种公众号,更有甚者直接收费。。。。本着为人民服务的精神,鄙人写下这篇博客,希望能对阁下带

    2024年02月03日
    浏览(47)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包