【ChatGLM】手把手教你云服务器部署ChatGLM聊天网站,不限次数调用。

这篇具有很好参考价值的文章主要介绍了【ChatGLM】手把手教你云服务器部署ChatGLM聊天网站,不限次数调用。。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

一,演示

私人部署地址:http://ilovechatgpt.cn。

免费使用!无限调用!速度还蛮快呢。

二,ChatGLM介绍

官方地址:https://github.com/THUDM/ChatGLM-6B

ChatGLM-6B 是一个开源的、支持中英双语的对话语言模型,由基于清华大学 KEG 实验室智谱 AI 于 2023 年联合训练,可以针对用户的问题和要求提供适当的答复和支持。

它基于 General Language Model 架构,具有 62 亿参数。结合模型量化技术,用户可以在消费级的显卡上进行本地部署(具体的部署条件看下章)。 ChatGLM-6B 使用了和 ChatGPT 相似的技术,针对中文问答和对话进行了优化。经过约 1T 标识符的中英双语训练,辅以监督微调、反馈自助、人类反馈强化学习等技术的加持,62 亿参数的 ChatGLM-6B 已经能生成相当符合人类偏好的回答。

特点:

  1. 开源
  2. 支持中文(国内很少有支持中文的开源模型)
  3. 低成本部署(兼容CPU)
  4. 具有记忆功能

三,部署条件

经过测试,推荐还是GPU部署,CPU运行的话运行时占用的资源更多,并且速度实在太慢了,自己单独使用的话也不能忍受这么慢的速度。GPU的生成速度才能满足使用的体验。

【ChatGLM】手把手教你云服务器部署ChatGLM聊天网站,不限次数调用。,我爱python,服务器,ChatGLM,人工智能

内存不够启动项目的话,进程会被自动kill掉。而且模型启动后占用的现存是远远低于需要的现存的,比如说,我用GPU部署的无量化的ChatGLM2-6B模型,正常来说需要13GB显存,但我完全启动后,只占用了4GB。

【ChatGLM】手把手教你云服务器部署ChatGLM聊天网站,不限次数调用。,我爱python,服务器,ChatGLM,人工智能

四,手把手教你搭建

1. 安装git
# centos 操作系统
yum install git
# ubuntu 操作系统
apt-get update
apt install git
2. 克隆地址到本地
git clone https://github.com/THUDM/ChatGLM-6B
# 进入项目文件夹
cd ChatGLM-6B 

实在很慢的话,直接去gitee上面搜ChatGLM-6B,找最新的,有很多人把它搬到gitee作为镜像项目。

3. 进入项目,克隆模型文件

模型文件的作用是作为训练集,项目能够本地加载该模型文件并将其用于预测新的自然语言文本。模型文件决定我们能有怎么样的输出结果。

【ChatGLM】手把手教你云服务器部署ChatGLM聊天网站,不限次数调用。,我爱python,服务器,ChatGLM,人工智能

可以根据上面部署条件的需求,来选择项目。我这里以 chatglm2-6b 来部署。

# 注意!后面一定要加上.git。
git clone https://huggingface.co/THUDM/chatglm2-6b.git

路径下就会有ChatGLM2-6B的文件夹,我们进入到里面

cd chatglm2-6b

你会发现模型很大,但是一下子就clone完了,是因为大文件是存储到lfs上面的,需要我们用到git的lfs工具来进行下载。当然,你也可以手动下载后,然后拷贝到服务器上,不过太麻烦,不推荐。

4. git lfs工具安装(已安装的话跳过)

centos安装命令

curl -s https://packagecloud.io/install/repositories/github/git-lfs/script.rpm.sh | sudo bash
 
sudo yum install git-lfs
 
git lfs install

ubuntu安装命令

curl -s https://packagecloud.io/install/repositories/github/git-lfs/script.deb.sh | sudo bash

sudo apt-get install git-lfs

git lfs install
5. 克隆模型大文件
git lfs pull 

模型文件都很大,下载时间很久,我建议在晚上的时候,使用如下命令,这样睡一觉,全部都已经下载好了。

# nohup 让程序后台运行,使其不受终端会话的影响而持续运行
nohup git lfs pull &
6. 运行web_demo.py

我建议把模型文件夹名字换成model,毕竟容易理解

# 进入到项目文件夹内部
cd ChatGLM-6B
# 改模型名字
mv chatglm2-6b model

修改官方样例代码

vim web_demo.py
  1. model为模型路径,也就是刚刚改的。

  2. .cuda() 意味用GPU运行,如果没有GPU,换成 .float() 用CPU运行就可以

【ChatGLM】手把手教你云服务器部署ChatGLM聊天网站,不限次数调用。,我爱python,服务器,ChatGLM,人工智能

  1. server_name参数指定能够访问的ip,默认不写的话是只能本地127.0.0.1访问
  2. server_port参数指定web服务端口
  3. share代表是否让huggingface给你生成一个公网地址,别人能通过该公网地址直接访问。默认只能使用72小时。

【ChatGLM】手把手教你云服务器部署ChatGLM聊天网站,不限次数调用。,我爱python,服务器,ChatGLM,人工智能

7. 结果

【ChatGLM】手把手教你云服务器部署ChatGLM聊天网站,不限次数调用。,我爱python,服务器,ChatGLM,人工智能

五,补充

还可以通过命令行窗口交互,运行python cli_demo.py文件

nohup python cli_demo.py &

【ChatGLM】手把手教你云服务器部署ChatGLM聊天网站,不限次数调用。,我爱python,服务器,ChatGLM,人工智能

通过模型生成post接口,供其余后台应用直接调用

nohup python api.py &

【ChatGLM】手把手教你云服务器部署ChatGLM聊天网站,不限次数调用。,我爱python,服务器,ChatGLM,人工智能

【ChatGLM】手把手教你云服务器部署ChatGLM聊天网站,不限次数调用。,我爱python,服务器,ChatGLM,人工智能
欢迎关注我的公众号!😊文章来源地址https://www.toymoban.com/news/detail-604673.html

到了这里,关于【ChatGLM】手把手教你云服务器部署ChatGLM聊天网站,不限次数调用。的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 【Linux】手把手教你实现udp服务器

    网络套接字~ 文章目录 前言 一、udp服务器的实现 总结 上一篇文章中我们讲到了很多的网络名词以及相关知识,下面我们就直接进入udp服务器的实现。 一、udp服务器的实现 首先我们需要创建五个文件(文件名可以自己命名也可以和我一样),分别是makefile,udpclient.cc,udpclient.hpp

    2024年02月13日
    浏览(46)
  • 手把手教你在 Windows 环境中搭建 MQTT 服务器

    前些天要对接一家硬件商的设备数据,对方使用的 MQTT 协议点对点透传,所以又赶紧搭建 MQTT 服务器,写 .NET 程序接收数据等等,今天分享一下如何搭建 MQTT 服务器。 MQTT(Message Queuing Telemetry Transport)是一种轻量级的、基于发布/订阅模式的通信协议,专门设计用于在低带宽

    2024年02月03日
    浏览(60)
  • ❤️手把手教你配置服务器板载raid❤️

    当我们买的服务器没有raid卡该怎么办? 但是我们还想给服务器系统做个冗余盘该怎么办? 接下来请去机房带上显示器键盘,开始操作吧!!! 现在以浪潮服务器NF5270M5、NF5270M6、NF5280M5、NF5280M6为例 配置板载raid1 第一步 服务器开机后在INSPUR log位置按delete键,随后进入系统

    2024年02月16日
    浏览(46)
  • 手把手教你如何使用Unity搭建简易图片服务器

    目录 引言 服务器 WAMP简介 WAMP的配置与使用 主要的WAMP集成环境有: 正文 1、外部工具素材准备 首先下载并安装 WAMP  图片路径设置 2、创建 Unity 工程 将图片加载到 Unity 项目中: 代码块 运行效果如下: 网络游戏中,服务器的搭建尤为重要,无论是授权服务器,还是非授权服务

    2024年02月02日
    浏览(55)
  • 手把手教你给服务器搭建一套资源监控系统

    本文主要是介绍如何给一台服务器,搭建一个优雅的资源监控系统 如果对你有帮助,欢迎三连 收藏 点赞 关注 !!! ---- Nick.Peng 分别下载以下安装包,下载地址: https://prometheus.io/download/ grafana-enterprise-9.3.6.linux-amd64 node_exporter-1.5.0.linux-amd64 prometheus-2.42.0.linux-amd64 安装Promet

    2024年02月06日
    浏览(108)
  • hMailServer 使用教程 —— 手把手教你搭建自己的邮箱服务器

    前言 假设你已经拥有了一台具有 公网ip 的服务器,以及 域名 hMailServer 介绍 hMailServer 适用于 Windows 操作系统,它除了提供邮箱系统需要的所有基础功能之外,还内置了一些常用功能,比如:反垃圾邮件、反病毒邮件,而其他未内置的功能,则可以根据用户需要,自行去社区

    2024年02月04日
    浏览(61)
  • 手把手教你搭建自己本地的ChatGLM

    如果能够本地自己搭建一个ChatGPT的话,训练一个属于自己知识库体系的人工智能AI对话系统,那么能够高效的处理应对所属领域的专业知识,甚至加入职业思维的意识,训练出能够结合行业领域知识高效产出的AI。这必定是十分高效的生产力工具,且本地部署能够保护个人数

    2024年02月03日
    浏览(67)
  • 手把手教你租用服务器以及使用Pycharm远程连接服务器训练模型

    由于模型优化过后训练时间太长,所以想使用显卡或者租服务器进行训练,but显卡太贵(只有A卡),那就租服务器好了,开始了解怎么租,去哪租一系列问题,果然只要开始思考,就是一个接一个的困难,直接被击碎。终于找到了AutoDL,美美的开始租服务器,结果又绊在了选

    2024年02月10日
    浏览(59)
  • 手把手教你从0开始在服务器上部署stable diffusion

    验证是否有nvidia驱动 如果没有显示出显卡信息(如下) 则需要参考 ubuntu安装nvidia驱动 https://blog.csdn.net/Perfect886/article/details/119109380 远程连接服务器工具:VS Code https://code.visualstudio.com/Download VS Code 插件:Remote 文件传输工具 FileZilla https://www.filezilla.cn/download 下载地址: https:

    2024年02月06日
    浏览(54)
  • 在 Ubuntu 上实现网络穿透:手把手教你搭建FRPS服务器

    希望能写一些简单的教程和案例分享给需要的人 先确认是否安装 curl ,如果没安装,请执行下面命令进行安装 更新包列表: 安装 curl : 如果Ubuntu系统尚未安装Docker,按照以下步骤进行安装: 更新包列表: 安装Docker的依赖包: 通过执行命令 docker --version,可以验证安装是否

    2024年04月13日
    浏览(57)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包