使用Nginx将大模型Web应用部署到公网

这篇具有很好参考价值的文章主要介绍了使用Nginx将大模型Web应用部署到公网。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

使用Nginx将大模型Web应用部署到公网

大模型训练完毕后,我们可以用SWIFT快速构建一个Web Demo大模型Web应用,本文将介绍如何使用Nginx将大模型Web应用部署到公网。

在进行后续步骤之前,先按照搭建一个大模型API服务中的方法安装好SWIFT框架,并激活到你的conda环境。

启动大模型Web应用

使用SWIFT提供的Web-UI启动大模型Web应用:

CUDA_VISIBLE_DEVICES=0 swift app-ui --model_type qwen1half-14b-chat --model_id_or_path /yldm0226/models/Qwen1.5-14B-Chat

运行成功后,可以看到以下输出:

Running on local URL:  http://127.0.0.1:7860

To create a public link, set `share=True` in `launch()`.

此时,我们就可以通过http://127.0.0.1:7860访问该Web应用了。

如果我们想让其他人也能访问到这个网址,需要将Web应用部署到公网。

配置Nginx服务器

这里我们使用Nginx来实现需求,Nginx是一个高性能的HTTP和反向代理web服务器,同时也提供了IMAP/POP3/SMTP服务。

以Ubuntu系统为例,使用以下命令安装Nginx:

sudo apt update
sudo apt install nginx

找到Nginx的配置文件。通常情况下,在Ubuntu中,配置文件位于/etc/nginx/nginx.conf。使用文本编辑器打开配置文件。

在配置文件中找到http块,然后在其中添加一个新的server块。示例如下:

server {
       listen 80;
       server_name 你的服务器ip地址;

       location / {
       proxy_pass http://localhost:7860;
       proxy_http_version 1.1;
       proxy_set_header Upgrade $http_upgrade;
       proxy_set_header Connection "Upgrade";
       proxy_set_header Host $host;
       proxy_set_header X-Real-IP $remote_addr;
       proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
       }
   }

保存并关闭配置文件。

运行以下命令检查Nginx配置是否有语法错误:

sudo nginx -t

如果没有错误,可以看到以下输出:

nginx: the configuration file /etc/nginx/nginx.conf syntax is ok
nginx: configuration file /etc/nginx/nginx.conf test is successful

如果有错误,请仔细检查并纠正错误。

运行以下命令启动nginx服务:

service nginx start

如果服务器上启用了防火墙(如iptables),需要确保将Nginx监听的80端口放行。

检查当前的iptables规则:

iptables -L

如果没有现有的规则允许80端口的流量通过,可以使用以下命令添加规则:

iptables -A INPUT -p tcp --dport 80 -j ACCEPT

这将允许TCP流量通过80端口。

如果服务器上运行着防火墙软件(如UFW),还需要确保它允许80端口的流量通过。可以使用以下命令启用UFW的80端口:

ufw allow 80

如果权限不足,需要在命令前加上sudo以获取管理员权限。

成功之后,就可以在本地浏览器中通过http://ip来访问服务器上的大模型Web应用了:

使用Nginx将大模型Web应用部署到公网

请注意,如果你的服务器网络是内网,本地需要额外的代理才能正常访问Web应用。文章来源地址https://www.toymoban.com/news/detail-840192.html

到了这里,关于使用Nginx将大模型Web应用部署到公网的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • Windows本地部署Ollama+qwen本地大语言模型Web交互界面并实现公网访问

    本文主要介绍如何在Windows系统快速部署Ollama开源大语言模型运行工具,并安装Open WebUI结合cpolar内网穿透软件,实现在公网环境也能访问你在本地内网搭建的大语言模型运行环境。 近些年来随着ChatGPT的兴起,大语言模型 LLM(Large Language Model)也成为了人工智能AI领域的热门话

    2024年04月16日
    浏览(53)
  • 【人工智能】怎样将大模型 GPT 推到企业级应用?都会趟到哪些坑?

    目录 在大数据领域,目前 LLM 大语言模型能做哪些工作?LLM 和 GPT 之间的

    2024年02月07日
    浏览(45)
  • 使用Portainer创建Nginx容器并部署本地网站结合内网穿透实现公网访问

    Portainer是一个开源的Docker轻量级可视化工具,它提供了一个直观的Web界面,让你轻松管理和监控Docker容器、镜像和网络等。之前在文章《Linux Docker 图形化工具 Portainer远程访问》中我们讲了如何使用Docker部署一个Portainer,并结合cpolar内网穿透实现了公网访问成功。本篇文章教

    2024年01月25日
    浏览(53)
  • 前端开发者必备:Nginx部署前端项目,让你的Web应用快速、稳定、安全地运行

    Nginx是一个高性能的HTTP和反向代理服务器,它可以用来部署前端项目,提供静态文件服务、负载均衡、缓存等功能。本文将介绍如何使用Nginx部署前端项目。 1. 安装Nginx 首先需要安装Nginx,可以通过源码编译安装,也可以通过包管理器安装,例如Ubuntu下可以使用以下命令安装

    2024年02月13日
    浏览(56)
  • 使用Python Flask搭建Web问答应用程序并发布到公网远程访问

    Flask是一个Python编写的Web微框架,让我们可以使用Python语言快速实现一个网站或Web服务,本期教程我们使用Python Flask搭建一个web问答应用程序框架,并结合cpolar内网穿透工具将我们的应用程序发布到公共网络上,实现可多人远程进入到该web应用程序访问。 在操作上我们将使用

    2024年02月05日
    浏览(50)
  • 内网穿透的应用-使用Docker部署开源建站工具—Halo,并实现个人博客公网访问

    本篇文章介绍如何在CentOS下使用Docker部署开源建站工具Halo,并结合cpolar内网穿透工具实现个人博客的公网访问。 Halo是一款基于Java的开源建站工具,具有简单易用、灵活性高、插件丰富等优点。可以做博客的软件平台有很多,像大家熟知的 WordPress 、Hexo、Typecho,对于计算机专

    2024年01月20日
    浏览(60)
  • 从零开始:使用 Kubernetes 部署 Nginx 应用

    可见,这个 nginx 并没有创建在 master 节点, 而是 slave 节点去了。 pod的8088端口作为容器的8080端口进行映射,pod要对外提供访问,需要实现service服务,有了 service才能被访问。可以认为service是管理一组pod的。 NodePort:把服务对外暴露公开 90:32708/TCP 中的 90 是 Service 的端口 32

    2024年02月16日
    浏览(59)
  • mac 版 Nginx 的使用及 web 项目的实际部署--最简单的方式

    1.1 终端输入指令: which brew 如果显示如下图, 则证明已安装, 如果未安装, 终端执行如下指令: 检查是否安装成功, 执行指令: brew -v 执行指令: 检查是否已经安装完成, 执行指令: nginx -v 如下图所示, 代表已经安装成功; 简单介绍几种常用指令: 启动指令: nginx 或者是 sudo nginx 重启

    2024年02月16日
    浏览(32)
  • 群晖NAS使用Docker部署大语言模型Llama 2结合内网穿透实现公网访问本地GPT聊天服务

    随着ChatGPT 和open Sora 的热度剧增,大语言模型时代,开启了AI新篇章,大语言模型的应用非常广泛,包括聊天机器人、智能客服、自动翻译、写作助手等。它们可以根据用户输入的文本生成相应的响应,提供个性化的建议和服务,目前大部分大语言模型的产品都是基于网络线上的

    2024年04月17日
    浏览(72)
  • Nginx配置文件修改结合内网穿透实现公网访问多个本地web站点

    1. 下载windows版Nginx 进入官方网站(http://nginx.org/en/download.html)下载windows版的nginx 下载好后解压进入nginx目录双击Nginx.exe即可运行 打开浏览器输入http://localhost ,nginx默认使用80端口,所以无需加端口号.出现nginx欢迎页面表示启动成功 2. 配置Nginx 在8086,和9999端口分别配置两个web服务

    2024年04月10日
    浏览(50)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包