两小时搭建属于自己的chatGPT(ChatGLM)免硬件(白嫖)

这篇具有很好参考价值的文章主要介绍了两小时搭建属于自己的chatGPT(ChatGLM)免硬件(白嫖)。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

目录

准备(注册):

搭建:

API模式:

测试:

总结:


准备硬件(注册):

注册modelscope(底层阿里云)免费使用服务器

https://modelscope.cn/

按照图片里的选择(选择其他好像不能创建成功)

两小时搭建属于自己的chatGPT(ChatGLM)免硬件(白嫖)

可以白嫖60多个小时的配置

8核 32GB 显存16G
预装 ModelScope Library
预装镜像 ubuntu20.04-cuda11.3.0-py37-torch1.11.0-tf1.15.5-1.5.0

ChatGLM-6B介绍

ChatGLM-6B 是一个开源的、支持中英双语的对话语言模型,基于 General Language Model (GLM) 架构,具有 62 亿参数。

硬件需求

量化等级 最低 GPU 显存(推理) 最低 GPU 显存(高效参数微调)
FP16(无量化) 13 GB 14 GB
INT8 8 GB 9 GB
INT4 6 GB 7 GB

搭建:

https://github.com/THUDM/ChatGLM-6B#代码调用

按照官网提示操作即可

>>> from transformers import AutoTokenizer, AutoModel
>>> tokenizer = AutoTokenizer.from_pretrained("THUDM/chatglm-6b", trust_remote_code=True)
>>> model = AutoModel.from_pretrained("THUDM/chatglm-6b", trust_remote_code=True).half().cuda()
>>> model = model.eval()
>>> response, history = model.chat(tokenizer, "你好", history=[])
>>> print(response)
你好👋!我是人工智能助手 ChatGLM-6B,很高兴见到你,欢迎问我任何问题。
>>> response, history = model.chat(tokenizer, "晚上睡不着应该怎么办", history=history)
>>> print(response)
晚上睡不着可能会让你感到焦虑或不舒服,但以下是一些可以帮助你入睡的方法:

1. 制定规律的睡眠时间表:保持规律的睡眠时间表可以帮助你建立健康的睡眠习惯,使你更容易入睡。尽量在每天的相同时间上床,并在同一时间起床。
2. 创造一个舒适的睡眠环境:确保睡眠环境舒适,安静,黑暗且温度适宜。可以使用舒适的床上用品,并保持房间通风。
3. 放松身心:在睡前做些放松的活动,例如泡个热水澡,听些轻柔的音乐,阅读一些有趣的书籍等,有助于缓解紧张和焦虑,使你更容易入睡。
4. 避免饮用含有咖啡因的饮料:咖啡因是一种刺激性物质,会影响你的睡眠质量。尽量避免在睡前饮用含有咖啡因的饮料,例如咖啡,茶和可乐。
5. 避免在床上做与睡眠无关的事情:在床上做些与睡眠无关的事情,例如看电影,玩游戏或工作等,可能会干扰你的睡眠。
6. 尝试呼吸技巧:深呼吸是一种放松技巧,可以帮助你缓解紧张和焦虑,使你更容易入睡。试着慢慢吸气,保持几秒钟,然后缓慢呼气。

如果这些方法无法帮助你入睡,你可以考虑咨询医生或睡眠专家,寻求进一步的建议。

解释

from transformers import AutoTokenizer, AutoModel:这是从transformers库中导入AutoTokenizer和AutoModel类。

tokenizer = AutoTokenizer.from_pretrained("THUDM/chatglm-6b", trust_remote_code=True):这一行代码通过调用AutoTokenizer类的from_pretrained方法,从“THUDM/chatglm-6b”模型地址中下载并加载对应的tokenizer。该tokenizer是用于将文本转换为模型可以处理的输入向量。

model = AutoModel.from_pretrained("THUDM/chatglm-6b", trust_remote_code=True).half().cuda():这一行代码通过调用AutoModel类的from_pretrained方法,从“THUDM/chatglm-6b”模型地址中下载并加载对应的模型。同时,它还将模型转换为半精度浮点数(half)和CUDA张量(cuda)。这些操作有助于提高模型的计算速度和性能。

model = model.eval():这一行代码将模型设置为推理模式,即禁用dropout和batch normalization等训练时使用的技巧。这有助于提高模型在测试和实际应用中的准确性。

其中 下载需要漫长的等待

tokenizer = AutoTokenizer.from_pretrained("THUDM/chatglm-6b", trust_remote_code=True):

两小时搭建属于自己的chatGPT(ChatGLM)免硬件(白嫖)

测试安装

两小时搭建属于自己的chatGPT(ChatGLM)免硬件(白嫖)

API模式:

官网参考这段

GitHub - THUDM/ChatGLM-6B: ChatGLM-6B: An Open Bilingual Dialogue Language Model | 开源双语对话语言模型文章来源地址https://www.toymoban.com/news/detail-448572.html

git clone https://github.com/THUDM/ChatGLM-6B

cd ChatGLM-6B



pip install fastapi uvicorn



python api.py



测试:

curl -X POST "http://127.0.0.1:8000" -H 'Content-Type: application/json' -d '{"prompt": "我叫daniel,给我写本书", "history": []}'

遇到的问题

异常1:
RuntimeError: CUDA Error: no kernel image is available for execution on the device
>>> model = model.quantize()
╭─────────────────────────────── Traceback (most recent call last) ────────────────────────────────╮
│ in <module>:1                                                                                    │
╰──────────────────────────────────────────────────────────────────────────────────────────────────╯
TypeError: quantize() missing 1 required positional argument: 'bits'


model = model.quantize(4)
改成

model = model.quantize(128)


异常2:

root@eais-bjtryzm9xivr28qvprxr-7c8cfdfd44-2j4rx:/mnt/workspace/ChatGLM-6B/ptuning# bash train.sh
Traceback (most recent call last):
  File "main.py", line 29, in <module>
    from rouge_chinese import Rouge
ModuleNotFoundError: No module named 'rouge_chinese'

 安装依赖解决 : pip install rouge_chinese nltk jieba datasets

异常3: 
 RuntimeError: CUDA Error: no kernel image is available for execution on the device
“调整 quantization_bit 来被原始模型的量化等级,不加此选项则为 FP16 精度加载”

bash train.sh
cp   train.sh train_bak.sh

vi train.sh
删除   --quantization_bit 4

异常4:
pip install cpm_kernels

ImportError: This modeling file requires the following packages that were not found in your environment: cpm_kernels. Run `pip install cpm_kernels`


 

总结:

ChatGLM 完全傻瓜式的教程,按照官网操作就行了。

ModelScope太给力了,本来都打算自己买机器运行了,正好有使用的机会。

自己windows11 GTX3060 12g 显卡也不能运行完成的项目

参考资料:

ModelScope 魔搭社区

GitHub - THUDM/ChatGLM-6B: ChatGLM-6B: An Open Bilingual Dialogue Language Model | 开源双语对话语言模型

到了这里,关于两小时搭建属于自己的chatGPT(ChatGLM)免硬件(白嫖)的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 基于Springboot+Openai SDK搭建属于自己的ChatGPT3.5 Ai聊天知识库,已接入Stable Diffusion绘图Api

    花费二个多月查阅资料与前后端开发,终于完成了我的开源项目HugAi聊天知识库。项目是基于Springboot+vue2集成了OpenAi SDK开发的一套智能AI知识库,已接入ChatGpt3.5接口以及openai的绘图接口,前后端代码都开源。 支持上下文功能 会话记录持久化 sse流式响应 后台可配置的场景对话

    2024年02月05日
    浏览(19)
  • 免费搭建属于自己的域名个性邮箱

    当你已经拥有域名为 fzuenactus.org.cn的SSL证书时,你可以使用该证书来配置你的域名邮箱。以下是更详细的步骤: 1. 安装必要软件: 在终端中执行以下命令来更新系统和安装所需的软件包: 2. 配置Postfix: 编辑Postfix主配置文件: 确保以下配置正确设置: myhostname = mail.fzuenac

    2024年02月11日
    浏览(24)
  • 搭建一个属于自己的springboot项目

    最近公司要上个新系统,指定由我来带两个人进行开发,既然是新项目,那么项目搭建的事就落到我的头上了。现在都是使用springboot进行开发,为此我搭环境使用的是springboot,具体java环境如下, 使用springboot的版本是2.3.3.RELEASE。使用maven进行项目管理, 总结下,我使用到的

    2024年02月07日
    浏览(27)
  • 如何成功地搭建属于自己的游戏平台?

    成功搭建自己的游戏平台需要考虑以下关键步骤: 市场研究:进行市场调研,了解游戏行业的趋势和竞争状况,确定目标受众和市场定位。 制定商业计划:根据市场研究结果,制定详细的商业计划,包括目标、策略、资金需求、营销计划等。 技术搭建:确定游戏平台的技术

    2024年02月16日
    浏览(18)
  • 如何搭建一个属于自己的网站(使用宝塔面板)

    1.域名 简单的解释一下,我们购买的域名会给我们一个公网ip,通常这个公网ip是很难记.所以我们可以将域名与ip进行\\\"绑定\\\". 域名的话建议购买一个有意义,不要太贵的.注意次年续费的价格!! 阿里云 或者 腾讯云 下面这个是我的域名(和我名字差不多的意思) 2.服务器 服务器的话

    2024年02月05日
    浏览(19)
  • 基于开源的 ChatGPT Web UI 项目,快速构建属于自己的 ChatGPT 站点

    作为一个技术博主,了不起比较喜欢各种折腾,之前给大家介绍过 ChatGPT 接入微信,钉钉和知识星球(如果没看过的可以翻翻前面的文章),最近再看开源项目的时候,发现了一个 ChatGPT Web UI 项目。 想着刚好之前没有将 ChatGPT 接入过 Web UI ,有了这个开源项目可以拿来使用,

    2023年04月10日
    浏览(20)
  • 十分钟教你部署一个属于自己的chatgpt网站-(源码)

    下面是一个简单的十分钟教程,教你如何部署一个属于自己的ChatGPT网站,包括以下几个步骤: 获取GPT-3 API密钥:为了使用GPT-3 API接口,我们需要先获取API密钥。在OpenAI官网上申请账户并订阅GPT-3服务后,即可获得API密钥。 创建Flask应用程序:Flask是一款Python Web框架,我们可以

    2024年02月05日
    浏览(17)
  • java调用chatgpt接口,实现专属于自己的人工智能助手

    今天突然突发奇想,就想要用java来调用chatget的接口,实现自己的聊天机器人,但是网上找文章,属实是少的可怜(可能是不让发吧)。找到了一些文章,但是基本都是通过调用别人的库来完成的,导入其他的jar还有不低的学习成本,于是就自己使用HttpClient5写了一个,在这里讲

    2024年02月03日
    浏览(29)
  • 训练自己的ChatGPT(ChatGLM微调 )

    目录 准备 操作 上传数据数据 训练进度 推理 验证 异常处理 总结 参考资料 ChatGLM 微调  ptuning 接上文https://blog.csdn.net/dingsai88/article/details/130639365 部署好ChatGLM以后,对它进行微调 如果已经使用过 API 或者web模式的应该已经下载过,不用再下载 pwd /mnt/workspace/ChatGLM-6B/ptuning 方法

    2024年02月05日
    浏览(24)
  • Gitbook超详细使用教程,搭建属于你自己的博客!

    Gitbook 是一个平台,允许用户创建和分享内容丰富的在线书籍。它有一个用户友好的界面,可以快速地写作、编辑和发布你的电子书。这里是一个按照 Gitbook 的基本步骤 打开GitBook官网,这里我选择使用github账号来登录,当然你也可以自己新建一个账号 点击左下角的加号,选

    2024年02月04日
    浏览(20)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包