自建类ChatGPT服务:本地化部署与远程访问教程

这篇具有很好参考价值的文章主要介绍了自建类ChatGPT服务:本地化部署与远程访问教程。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

自建类ChatGPT服务:本地化部署与远程访问教程,# 人工智能专栏,人工智能

🌷🍁 博主猫头虎 带您 Go to New World.✨🍁
🦄 博客首页——猫头虎的博客🎐
🐳《面试题大全专栏》 文章图文并茂🦕生动形象🦖简单易学!欢迎大家来踩踩~🌺
🌊 《IDEA开发秘籍专栏》学会IDEA常用操作,工作效率翻倍~💐
🌊 《100天精通Golang(基础入门篇)》学会Golang语言,畅玩云原生,走遍大小厂~💐

🪁🍁 希望本文能够给您带来一定的帮助🌸文章粗浅,敬请批评指正!🍁🐥

自建类ChatGPT服务:本地化部署与远程访问教程,# 人工智能专栏,人工智能

自建类ChatGPT服务:本地化部署与远程访问教程

摘要

本文介绍了如何在Windows 10系统上,通过使用Text generation web UI和cpolar内网穿透工具,搭建和远程访问自建类ChatGPT服务。文章详细介绍了安装Text generation web UI和语言模型、安装cpolar内网穿透工具、创建公网地址和固定公网地址的步骤,帮助读者快速搭建并远程访问自定义的大型语言模型。

引言

随着大型语言模型在自然语言处理领域的广泛应用,许多研究者和开发者对如何在本地进行自建类ChatGPT服务,并通过远程访问来提高效率和满足私有化部署的需求产生了兴趣。Text generation web UI为类ChatGPT的大型语言模型提供了一个友好的网页界面,使其易于使用和自定义。本文将介绍如何将Text generation web UI与cpolar内网穿透工具结合使用,实现从本地化部署到最后的远程访问。

导语

本文将指导读者通过简单的步骤在Windows 10系统上搭建自建类ChatGPT服务,并通过cpolar内网穿透工具实现远程访问。通过这种方法,读者可以轻松地拥有一个自定义的语言模型服务,无论是用于个人学习研究还是商业应用,都能得到便捷的体验。

系统环境

Windows 10

Python 3.11.4

1. 安装Text generation web UI

在github界面下载压缩包,这里以windows系统为例:

https://github.com/oobabooga/text-generation-webui

使用windows系统,我们下载windows压缩包:

自建类ChatGPT服务:本地化部署与远程访问教程,# 人工智能专栏,人工智能

下载后,这里注意:存放目录的路径不能有空格,然后点击start_windows.bat启动安装。

自建类ChatGPT服务:本地化部署与远程访问教程,# 人工智能专栏,人工智能

在安装过程中会提示选择显卡类型,根据电脑配置正常选择即可,然后等待下载,下载大小2个GB左右大小资源。

自建类ChatGPT服务:本地化部署与远程访问教程,# 人工智能专栏,人工智能

2.安装依赖

上面安装后会出现两个文件夹,可以看到其中一个是text-generation-webui 名称文件夹,我们点击cmd_windows.bat打开cmd命令行。

自建类ChatGPT服务:本地化部署与远程访问教程,# 人工智能专栏,人工智能

打开后,进入text-generation-webui文件夹:

cd text-generation-webui

执行下载依赖命令,注意!!!这里需要kx上网,否则下载依赖会发生错误,包括后面也一直需要保持kx上网哦!!!

pip install -r requirements.txt

执行后等待下载完成即可

自建类ChatGPT服务:本地化部署与远程访问教程,# 人工智能专栏,人工智能

3. 安装语言模型

同意点击cmd_windows.bat打开cmd命令行,进入

自建类ChatGPT服务:本地化部署与远程访问教程,# 人工智能专栏,人工智能

输入命令进入text-generation-webui文件夹

cd text-generation-webui

安装facebook语言模型,其他语言模型可以查看GitHub文档上面找到:

python download-model.py facebook/opt-1.3b

输入后等待下载安装完成即可,为了防止出现下载失败,建议开启kx上网!

自建类ChatGPT服务:本地化部署与远程访问教程,# 人工智能专栏,人工智能

4. 启动

点击start_windows.bat启动

自建类ChatGPT服务:本地化部署与远程访问教程,# 人工智能专栏,人工智能

启动后,可以看到访问的地址和端口,端口是:7860

自建类ChatGPT服务:本地化部署与远程访问教程,# 人工智能专栏,人工智能

在浏览器输入上述URL,即可看到web ui 界面:

自建类ChatGPT服务:本地化部署与远程访问教程,# 人工智能专栏,人工智能

设置一下语言模型,点击Model,在下拉框可以看到我们上面下载安装的facebook模型,选择后点击Load,然后保存设置。

自建类ChatGPT服务:本地化部署与远程访问教程,# 人工智能专栏,人工智能

然后输入即可对话,这样就搭建好了,可玩度很高,且可以扩展其他语言模型!

自建类ChatGPT服务:本地化部署与远程访问教程,# 人工智能专栏,人工智能

5. 安装cpolar 内网穿透

cpolar内网穿透工具,永久免费且不限制流量,支持http/https/tcp协议,无需公网IP,也不用设置路由器,使用简单。

cpolar官网:https://www.cpolar.com/

访问cpolar官网,注册一个账号,然后下载并安装客户端,具体安装教程可以参考官网文档教程。

  • windows系统:在官网下载安装包后,双击安装包一路默认安装即可。
  • linux系统:支持一键自动安装脚本,详细请参考官网文档——入门指南

cpolar安装成功后,在浏览器上访问本地9200端口【http://localhost:9200】,使用cpolar账号登录。

自建类ChatGPT服务:本地化部署与远程访问教程,# 人工智能专栏,人工智能

6. 创建公网地址

点击左侧仪表盘的隧道管理——创建隧道,创建一个我们上面的text generation webui 的http访问方式的7860隧道

  • 隧道名称:可自定义命名,注意不要与已有的隧道名称重复
  • 协议:选择http
  • 本地地址:7860
  • 域名类型:免费选择随机域名
  • 地区:选择China vip

点击创建

自建类ChatGPT服务:本地化部署与远程访问教程,# 人工智能专栏,人工智能

隧道创建成功后,点击左侧的状态——在线隧道列表,查看所生成的公网地址,有两种访问方式,一种是http 和https
自建类ChatGPT服务:本地化部署与远程访问教程,# 人工智能专栏,人工智能

7. 公网访问

我们使用http公网地址访问,可以看到,我们访问到了text generation webui 界面,这样一个公网地址访问就创建好了。

自建类ChatGPT服务:本地化部署与远程访问教程,# 人工智能专栏,人工智能

8. 固定公网地址

由于以上使用cpolar所创建的隧道使用的是随机公网地址,24小时内会随机变化,不利于长期远程访问。因此我们可以为其配置二级子域名,该地址为固定地址,不会随机变化【ps:cpolar.cn已备案】

注意需要将cpolar套餐升级至基础套餐或以上,且每个套餐对应的带宽不一样。【cpolar.cn已备案】

登录cpolar官网,点击左侧的预留,选择保留二级子域名,地区选择china vip top,然后设置一个二级子域名名称,填写备注信息,点击保留。

自建类ChatGPT服务:本地化部署与远程访问教程,# 人工智能专栏,人工智能

保留成功后复制保留的二级子域名地址:

自建类ChatGPT服务:本地化部署与远程访问教程,# 人工智能专栏,人工智能

登录cpolar web UI管理界面,点击左侧仪表盘的隧道管理——隧道列表,找到所要配置的隧道,点击右侧的编辑

自建类ChatGPT服务:本地化部署与远程访问教程,# 人工智能专栏,人工智能

修改隧道信息,将保留成功的二级子域名配置到隧道中

  • 域名类型:选择二级子域名
  • Sub Domain:填写保留成功的二级子域名
  • 地区: China VIP

点击更新

自建类ChatGPT服务:本地化部署与远程访问教程,# 人工智能专栏,人工智能

更新完成后,打开在线隧道列表,此时可以看到随机的公网地址已经发生变化,地址名称也变成了保留和固定的二级子域名名称。

自建类ChatGPT服务:本地化部署与远程访问教程,# 人工智能专栏,人工智能

最后,我们使用固定的公网地址访问text generation webui 界面可以看到访问成功,一个永久不会变化的远程访问方式即设置好了。

自建类ChatGPT服务:本地化部署与远程访问教程,# 人工智能专栏,人工智能

转载自cpolar极点云文章:本地化部署自建类ChatGPT服务远程访问

总结

本文详细介绍了在Windows 10系统上搭建自建类ChatGPT服务并实现远程访问的步骤。首先,通过下载Text generation web UI并安装依赖,成功部署了类ChatGPT的大型语言模型。然后,使用cpolar内网穿透工具创建了一个公网地址,并通过固定公网地址保证了长期稳定的远程访问。通过这样的搭建,读者可以方便地在本地操作和定制语言模型,同时通过远程访问实现更加灵活的使用方式。

原创声明

=======

作者wx: [ libin9iOak ]


本文为原创文章,版权归作者所有。未经许可,禁止转载、复制或引用。

作者保证信息真实可靠,但不对准确性和完整性承担责任。

未经许可,禁止商业用途。

如有疑问或建议,请联系作者。

感谢您的支持与尊重。

点击下方名片,加入IT技术核心学习团队。一起探索科技的未来,共同成长。文章来源地址https://www.toymoban.com/news/detail-625667.html

到了这里,关于自建类ChatGPT服务:本地化部署与远程访问教程的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • GLM联合go-cqhttp实现qq群GLM机器人服务器的本地化部署笔记

    以下chatgpt-mirai-qq-bot简称GPT转发程序 实现本地化部署的GLM q群机器人 最好16GB的显存 显卡性能要求不高 window环境 该项目的是利用lss233大佬的项目一头对接GLM模型将其消息处理成go-cqhttp可以处理的形式最后发送到qq群内 lss233大佬的项目地址 https://github.com/lss233/chatgpt-mirai-qq-bot

    2024年02月16日
    浏览(37)
  • Excalidraw本地化部署

    1 - Excalidraw介绍 Excalidraw是一个开源、小巧易用的手写风格的框图画板软件。 ​excalidraw官网地址:https://excalidraw.com/​ 2 - Excalidraw本地化安装(git方式) 2-1安装部署 在terminal中,输入: 安装完成后,在terminal中,进入项目文件 2-2 安装依赖环境 - nodeJS NodeJS下载地址: nodejs下载

    2024年02月14日
    浏览(47)
  • Remix 完全本地化部署

    1.简介 Remix 是我们开发 Solidity 智能合约的常用工具,有时候我们会直接访问在线版的 Remix-IDE。 https://remix.ethereum.org/ 但是,如何将在线Remix链接本地文件系统呢,下面则是部署步骤 2、部署 Remixd Remixd 的安装使用步骤如下: 安装 Remixd:  npm install -g @remix-project/remixd 启动 Rem

    2024年02月17日
    浏览(46)
  • hadoop本地化windows部署

    需求背景是java代码提交服务器测试周期流程太慢,需要一种能直接在windows本地部署的相关组件。分析项目现有大数据技术栈,包括hadoop、hive和spark(sparksql),存储和计算都依赖windows系统。期中hive保存在本地的hadoop上,spark提交在hadoop的yarn上。 · hadoop on windows · hive on windows

    2024年02月16日
    浏览(74)
  • 本地化部署stable diffusion

    本文是根据https://zhuanlan.zhihu.com/p/606825889 和 https://blog.csdn.net/cycyc123/article/details/129165844两个教程进行的部署测试,终端是windows 前期需要安装python与git环境,这里不赘叙了,首先是几个下载包,可以提前下载: stable diffusion的web界面环境 https://pan.xunlei.com/s/VNQ4LqoKBidPdqSj2xMioVhs

    2023年04月09日
    浏览(68)
  • 本地化部署大语言模型 ChatGLM

    ChatGLM-6B 是一个开源的、支持中英双语的对话语言模型,基于 General Language Model (GLM) 架构,具有 62 亿参数。结合模型量化技术,用户可以在消费级的显卡上进行本地部署(INT4 量化级别下最低只需 6GB 显存)。 ChatGLM-6B 使用了和 ChatGPT 相似的技术,针对中文问答和对话进行了优

    2023年04月20日
    浏览(63)
  • 中文大语言模型 Llama-2 7B(或13B) 本地化部署 (国内云服务器、GPU单卡16GB、中文模型、WEB页面TextUI、简单入门)

            本文目的是让大家先熟悉模型的部署,简单入门;所以只需要很小的算力,单台服务器 单GPU显卡(显存不低于12GB),操作系统需要安装 Ubuntu 18.04。         准备一台服务器 单张英伟达GPU显卡(显存不低于12GB),操作系统需要安装 Ubuntu 18.04 (具体安装过程忽略)

    2024年02月08日
    浏览(45)
  • 实战whisper:本地化部署通用语音识别模型

            Whisper 是一种通用语音识别模型。它是在大量不同音频数据集上进行训练的,也是一个多任务模型,可以执行多语言语音识别、语音翻译和语言识别。         这里呢,我将给出我的一些代码,来帮助你尽快实现【语音转文字】的服务部署。         以下是该A

    2024年01月18日
    浏览(94)
  • Spark的Windows本地化部署完整方案

    对于Spark,网上涉及到Windows平台搭建的资料不多。大多资料不全,而且很少说明注意事项,存在一定的挖坑行为。对于不是很熟悉spark环境搭建过程,但是又非常想在自己的电脑上搭建一个本地环境的小伙伴来说存在一定的绕路行为。本文借鉴了网上大部分的资料,在整理集

    2023年04月11日
    浏览(40)
  • 【AI工具】-Stable Diffusion本地化部署教程

    今天我们要介绍的是时下最流行的AI绘图软件Stable Diffusion,虽然Diffusion.ai已经开放api,但是长时间的商业化调用我们需要购买很多的金币。所以我们需要找一个平替的AI绘图平台,现在主流市场中AI绘图软件主要就是OpenAI的DALLE、midjourney以及今天要学习的Stable Diffusion,而前两

    2024年02月13日
    浏览(54)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包