【ChatGLM】手把手教你云服务器部署ChatGLM聊天网站,不限次数调用。

这篇具有很好参考价值的文章主要介绍了【ChatGLM】手把手教你云服务器部署ChatGLM聊天网站,不限次数调用。。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

一,演示

私人部署地址:http://ilovechatgpt.cn。

免费使用!无限调用!速度还蛮快呢。

二,ChatGLM介绍

官方地址:https://github.com/THUDM/ChatGLM-6B

ChatGLM-6B 是一个开源的、支持中英双语的对话语言模型,由基于清华大学 KEG 实验室智谱 AI 于 2023 年联合训练,可以针对用户的问题和要求提供适当的答复和支持。

它基于 General Language Model 架构,具有 62 亿参数。结合模型量化技术,用户可以在消费级的显卡上进行本地部署(具体的部署条件看下章)。 ChatGLM-6B 使用了和 ChatGPT 相似的技术,针对中文问答和对话进行了优化。经过约 1T 标识符的中英双语训练,辅以监督微调、反馈自助、人类反馈强化学习等技术的加持,62 亿参数的 ChatGLM-6B 已经能生成相当符合人类偏好的回答。

特点:

  1. 开源
  2. 支持中文(国内很少有支持中文的开源模型)
  3. 低成本部署(兼容CPU)
  4. 具有记忆功能

三,部署条件

经过测试,推荐还是GPU部署,CPU运行的话运行时占用的资源更多,并且速度实在太慢了,自己单独使用的话也不能忍受这么慢的速度。GPU的生成速度才能满足使用的体验。

【ChatGLM】手把手教你云服务器部署ChatGLM聊天网站,不限次数调用。,我爱python,服务器,ChatGLM,人工智能

内存不够启动项目的话,进程会被自动kill掉。而且模型启动后占用的现存是远远低于需要的现存的,比如说,我用GPU部署的无量化的ChatGLM2-6B模型,正常来说需要13GB显存,但我完全启动后,只占用了4GB。

【ChatGLM】手把手教你云服务器部署ChatGLM聊天网站,不限次数调用。,我爱python,服务器,ChatGLM,人工智能

四,手把手教你搭建

1. 安装git
# centos 操作系统
yum install git
# ubuntu 操作系统
apt-get update
apt install git
2. 克隆地址到本地
git clone https://github.com/THUDM/ChatGLM-6B
# 进入项目文件夹
cd ChatGLM-6B 

实在很慢的话,直接去gitee上面搜ChatGLM-6B,找最新的,有很多人把它搬到gitee作为镜像项目。

3. 进入项目,克隆模型文件

模型文件的作用是作为训练集,项目能够本地加载该模型文件并将其用于预测新的自然语言文本。模型文件决定我们能有怎么样的输出结果。

【ChatGLM】手把手教你云服务器部署ChatGLM聊天网站,不限次数调用。,我爱python,服务器,ChatGLM,人工智能

可以根据上面部署条件的需求,来选择项目。我这里以 chatglm2-6b 来部署。

# 注意!后面一定要加上.git。
git clone https://huggingface.co/THUDM/chatglm2-6b.git

路径下就会有ChatGLM2-6B的文件夹,我们进入到里面

cd chatglm2-6b

你会发现模型很大,但是一下子就clone完了,是因为大文件是存储到lfs上面的,需要我们用到git的lfs工具来进行下载。当然,你也可以手动下载后,然后拷贝到服务器上,不过太麻烦,不推荐。

4. git lfs工具安装(已安装的话跳过)

centos安装命令

curl -s https://packagecloud.io/install/repositories/github/git-lfs/script.rpm.sh | sudo bash
 
sudo yum install git-lfs
 
git lfs install

ubuntu安装命令

curl -s https://packagecloud.io/install/repositories/github/git-lfs/script.deb.sh | sudo bash

sudo apt-get install git-lfs

git lfs install
5. 克隆模型大文件
git lfs pull 

模型文件都很大,下载时间很久,我建议在晚上的时候,使用如下命令,这样睡一觉,全部都已经下载好了。

# nohup 让程序后台运行,使其不受终端会话的影响而持续运行
nohup git lfs pull &
6. 运行web_demo.py

我建议把模型文件夹名字换成model,毕竟容易理解

# 进入到项目文件夹内部
cd ChatGLM-6B
# 改模型名字
mv chatglm2-6b model

修改官方样例代码

vim web_demo.py
  1. model为模型路径,也就是刚刚改的。

  2. .cuda() 意味用GPU运行,如果没有GPU,换成 .float() 用CPU运行就可以

【ChatGLM】手把手教你云服务器部署ChatGLM聊天网站,不限次数调用。,我爱python,服务器,ChatGLM,人工智能

  1. server_name参数指定能够访问的ip,默认不写的话是只能本地127.0.0.1访问
  2. server_port参数指定web服务端口
  3. share代表是否让huggingface给你生成一个公网地址,别人能通过该公网地址直接访问。默认只能使用72小时。

【ChatGLM】手把手教你云服务器部署ChatGLM聊天网站,不限次数调用。,我爱python,服务器,ChatGLM,人工智能

7. 结果

【ChatGLM】手把手教你云服务器部署ChatGLM聊天网站,不限次数调用。,我爱python,服务器,ChatGLM,人工智能

五,补充

还可以通过命令行窗口交互,运行python cli_demo.py文件

nohup python cli_demo.py &

【ChatGLM】手把手教你云服务器部署ChatGLM聊天网站,不限次数调用。,我爱python,服务器,ChatGLM,人工智能

通过模型生成post接口,供其余后台应用直接调用

nohup python api.py &

【ChatGLM】手把手教你云服务器部署ChatGLM聊天网站,不限次数调用。,我爱python,服务器,ChatGLM,人工智能

【ChatGLM】手把手教你云服务器部署ChatGLM聊天网站,不限次数调用。,我爱python,服务器,ChatGLM,人工智能
欢迎关注我的公众号!😊文章来源地址https://www.toymoban.com/news/detail-604673.html

到了这里,关于【ChatGLM】手把手教你云服务器部署ChatGLM聊天网站,不限次数调用。的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 手把手教你搭建内网穿透服务器

    有时候我们需要把外网可以访问自己的内网,比如在微信公众号开发调用接口时为了方便调试就需要配置回调地址或者是想把自己的nas可以在不在家就能访问,这时候就需要内网穿透。使用内网穿透主要有几种方式,1.使用内网穿透服务商提供的服务,但是这种需要付费,免

    2024年04月23日
    浏览(49)
  • 手把手教你在 Windows 环境中搭建 MQTT 服务器

    前些天要对接一家硬件商的设备数据,对方使用的 MQTT 协议点对点透传,所以又赶紧搭建 MQTT 服务器,写 .NET 程序接收数据等等,今天分享一下如何搭建 MQTT 服务器。 MQTT(Message Queuing Telemetry Transport)是一种轻量级的、基于发布/订阅模式的通信协议,专门设计用于在低带宽

    2024年02月03日
    浏览(65)
  • ❤️手把手教你配置服务器板载raid❤️

    当我们买的服务器没有raid卡该怎么办? 但是我们还想给服务器系统做个冗余盘该怎么办? 接下来请去机房带上显示器键盘,开始操作吧!!! 现在以浪潮服务器NF5270M5、NF5270M6、NF5280M5、NF5280M6为例 配置板载raid1 第一步 服务器开机后在INSPUR log位置按delete键,随后进入系统

    2024年02月16日
    浏览(54)
  • 手把手教你如何使用Unity搭建简易图片服务器

    目录 引言 服务器 WAMP简介 WAMP的配置与使用 主要的WAMP集成环境有: 正文 1、外部工具素材准备 首先下载并安装 WAMP  图片路径设置 2、创建 Unity 工程 将图片加载到 Unity 项目中: 代码块 运行效果如下: 网络游戏中,服务器的搭建尤为重要,无论是授权服务器,还是非授权服务

    2024年02月02日
    浏览(63)
  • hMailServer 使用教程 —— 手把手教你搭建自己的邮箱服务器

    前言 假设你已经拥有了一台具有 公网ip 的服务器,以及 域名 hMailServer 介绍 hMailServer 适用于 Windows 操作系统,它除了提供邮箱系统需要的所有基础功能之外,还内置了一些常用功能,比如:反垃圾邮件、反病毒邮件,而其他未内置的功能,则可以根据用户需要,自行去社区

    2024年02月04日
    浏览(68)
  • 手把手教你搭建自己本地的ChatGLM

    如果能够本地自己搭建一个ChatGPT的话,训练一个属于自己知识库体系的人工智能AI对话系统,那么能够高效的处理应对所属领域的专业知识,甚至加入职业思维的意识,训练出能够结合行业领域知识高效产出的AI。这必定是十分高效的生产力工具,且本地部署能够保护个人数

    2024年02月03日
    浏览(73)
  • 手把手教你租用服务器以及使用Pycharm远程连接服务器训练模型

    由于模型优化过后训练时间太长,所以想使用显卡或者租服务器进行训练,but显卡太贵(只有A卡),那就租服务器好了,开始了解怎么租,去哪租一系列问题,果然只要开始思考,就是一个接一个的困难,直接被击碎。终于找到了AutoDL,美美的开始租服务器,结果又绊在了选

    2024年02月10日
    浏览(62)
  • 手把手教你从0开始在服务器上部署stable diffusion

    验证是否有nvidia驱动 如果没有显示出显卡信息(如下) 则需要参考 ubuntu安装nvidia驱动 https://blog.csdn.net/Perfect886/article/details/119109380 远程连接服务器工具:VS Code https://code.visualstudio.com/Download VS Code 插件:Remote 文件传输工具 FileZilla https://www.filezilla.cn/download 下载地址: https:

    2024年02月06日
    浏览(58)
  • 在 Ubuntu 上实现网络穿透:手把手教你搭建FRPS服务器

    希望能写一些简单的教程和案例分享给需要的人 先确认是否安装 curl ,如果没安装,请执行下面命令进行安装 更新包列表: 安装 curl : 如果Ubuntu系统尚未安装Docker,按照以下步骤进行安装: 更新包列表: 安装Docker的依赖包: 通过执行命令 docker --version,可以验证安装是否

    2024年04月13日
    浏览(60)
  • AIGC|手把手教你进行ChatGLM模型部署实践

    模型部署基本步骤分为模型选择、模型部署、运行,如果需要在特定的场景下定制化模型,则还需要进行数据集的选择、数据集格式转换、微调。 根据上述的步骤本教程选取如下的开源模型、数据集,来对医疗场景下进行定制化模型部署。当然模型部署对GPU要求非常高,所以

    2024年02月03日
    浏览(49)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包