部署simple-chat项目

这篇具有很好参考价值的文章主要介绍了部署simple-chat项目。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

simple-chat介绍:此项目是基于openAI3.5模型的h5端人工智能聊天项目,无需翻墙即可体验。

simple-chat线上地址:simple-chat

simple-chat项目地址:GitHub - AMxiaoming/simple-chat

nginx部署前端步骤:

https://blog.csdn.net/weixin_43239880/article/details/129434402

宝塔部署node步骤:

首先你已经有了服务器,并且打开了宝塔面板,其次准备好你的nodejs项目。

 上传node文件至宝塔文件内,这里以我的宝塔面板为例

部署simple-chat项目

放行3004端口

部署simple-chat项目

阿里云内

部署simple-chat项目

 在宝塔安装以下软件

部署simple-chat项目

部署simple-chat项目

部署simple-chat项目

部署simple-chat项目

 ​​​​部署simple-chat项目

至此已经部署完毕,去访问你的地址去测试node是否成功吧:公网ip:3005/get-data

tip:本地模拟服务器,运行yarn build后的项目 

npm install -g http-server

终端运行:http-server ./dist/ -p 8080 -o

可在packge.json内配置

部署simple-chat项目

 配置完后:yarn http 即可文章来源地址https://www.toymoban.com/news/detail-438012.html

到了这里,关于部署simple-chat项目的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • Docker 部署 Lobe Chat 服务

    拉取最新版本的 Lobe Chat 镜像: 使用以下命令来运行 Lobe Chat 容器: -d (后台运行容器) --name (给容器起一个名字方便管理) -p 10084:3210 (将容器的3210端口映射到主机的10084端口, 同时指定TCP协议) -e OPENAI_API_KEY=sk-xxxx (OpenAI API Key) -e OPENAI_PROXY_URL=https://api.openai.com/v1 (OpenAI 接口代理, 默

    2024年02月03日
    浏览(41)
  • 【OpenVINO】 使用 OpenVINO CSharp API 部署 PaddleOCR 项目介绍

    前言:   在之前的项目中,我们已经使用 OpenVINO TM CSharp API 部署 PaddleOCR 全系列模型,但随着PaddleOCRv4版本发布以及OpenVINO CSharp API版本迭代,上一版本的项目已经不再适用。因此在推出的最新项目中,已经完成了对PaddleOCRv4的匹配,并且采用了最新版本的 OpenVINO TM CSharp API,

    2024年02月03日
    浏览(41)
  • 【论文阅读】以及部署BEVFusion: A Simple and Robust LiDAR-Camera Fusion Framework

    BEVFusion: A Simple and Robust LiDAR-Camera Fusion Framework BEVFusion:一个简单而强大的LiDAR-相机融合框架 NeurIPS 2022 多模态传感器融合意味着信息互补、稳定,是自动驾驶感知的重要一环,本文注重工业落地,实际应用 融合方案: 前融合(数据级融合)指通过空间对齐直接融合不同模态的

    2024年02月04日
    浏览(46)
  • 让CHAT介绍下V2ray

    CHAT回复:V2Ray是一个网络工具,主要用于科学上网和保护用户的网络安全。它的名字源自Vmess + Ray(光线),通过使用新的网络协议,为用户提供稳定且灵活的代理服务。 下面是一些V2Ray的主要特性: 1. 多协议支持:V2Ray 提供了大量的传输协议,如 TCP、mKCP、WebSocket 等,以及

    2024年01月16日
    浏览(46)
  • 3分钟部署私人chat-gpt教程

    点击 Vercel 邮箱注册一个号,+86的手机号也能注册。需要github账号和openai key 1. 在首页新建项目 2. 登录你的github账号,然后创建一个仓库 导入第三方的仓库 输入: https://github.com/Yidadaa/ChatGPT-Next-Web 点击创建项目 进入项目的设置 配置环境变量 环境变量配置如下: OPENAI_API_KE

    2024年02月15日
    浏览(50)
  • Chat-GLM 详细部署(GPU显存>=12GB)

    1. 下载安装 miniconda3 : https://docs.conda.io/en/latest/miniconda.html conda是一个包和环境管理工具,它不仅能管理包,还能隔离和管理不同python版本的环境。类似管理nodejs环境的nvm工具。 2. conda环境变量: 新建 CONDA_HOME :conda安装路径 3. 激活conda: 打开CMD执行conda init  4. 测试conda安装是

    2023年04月21日
    浏览(38)
  • 《英伟达-本地AI》--NVIDIA Chat with RTX-本机部署

            突然发现公司给配置的电脑是NVIDIA RTX 4060的显卡,这不搞一搞本地部署的大模型玩一玩???         从0-》1记录一下本地部署的全过程。 Build a Custom LLM with Chat With RTX | NVIDIA GitHub - NVIDIA/trt-llm-rag-windows: A developer reference project for creating Retrieval Augmented Generation (RAG)

    2024年03月15日
    浏览(45)
  • C# WPF项目创建(基于VS 2019介绍)

    1.打开VS,选择《创建新项目》 2.选择《WPF应用》,这里设计两个有 .NET Framework框架 和 .NET core 框架, 如图所示: 区别: .NET Framework 框架只能在windows下使用 .NET core 框架支持linux 下运行 3. 项目名称根据需求自行命名,这边以“WpfApp1”来命名,位置自行选择,这边选择了\\\"E:

    2024年02月15日
    浏览(39)
  • 介绍5款热门的Chat GPT应用,总有适合你的一款

    从2022年12月初刚上线至今,不到半年时间 ChatGPT月活就超过了1亿用户!可谓火的一塌糊涂, 比尔盖茨都称: ChatGPT 的历史意义重大,不亚于PC或互联网诞生! 以至于ChatGPT官网长期都处于满负荷运转的状态! 由于ChatGPT的注册门槛较高,加上OPENAI官方API的成本高 国内很多网站

    2023年04月13日
    浏览(40)
  • 基于vue-simple-uploader封装文件分片上传、秒传及断点续传的全局上传

    1. 前言 文件上传 小文件(图片、文档、视频)上传可以直接使用很多ui框架封装的上传组件,或者自己写一个input 上传,利用FormData 对象提交文件数据,后端使用spring提供的MultipartFile进行文件的接收,然后写入即可。但是对于比较大的文件,比如上传2G左右的文件(http上传

    2024年02月06日
    浏览(45)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包