开源模型应用落地-工具使用篇-SLB(二)

这篇具有很好参考价值的文章主要介绍了开源模型应用落地-工具使用篇-SLB(二)。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

一、前言

    通过学习"开源模型应用落地"系列文章,我们成功地建立了一个完整可实施的AI交付流程。现在,我们要引入负载均衡,以提高我们的AI服务的性能和故障转移能力。本文将详细介绍如何使用腾讯云的负载均衡技术来将我们的AI服务部署为一个集群。


二、术语

2.1、负载均衡

    负载均衡(Load Balancing)是一种技术,旨在在计算机、网络或其他资源上均匀分配工作负载,以提高系统的性能、可靠性和可扩展性。

    在计算机网络中,负载均衡通常用于分配网络流量或请求到多个服务器上,以避免单个服务器过载而导致性能下降或系统故障。通过将工作负载分发到多个服务器上,负载均衡确保每个服务器都能够处理适量的请求,从而提高整个系统的响应能力。

2.2、硬件负载均衡

    是一种使用专门的物理设备(硬件负载均衡器)来实现负载均衡的技术。与软件负载均衡相比,硬件负载均衡器是一种专用硬件设备,具有更高的处理能力和性能。

    硬件负载均衡器通常位于网络中央位置,作为服务器和客户端之间的中间层。其主要功能是在多个服务器之间分发网络流量或请求,以确保负载均衡和高可用性。

硬件负载均衡器具有以下特点和优势:

  • 高性能:硬件负载均衡器通常具有专门的硬件加速器和优化算法,能够处理大量的网络流量和请求,提供快速响应和高吞吐量。
  • 可扩展性:通过添加更多的服务器和负载均衡器,硬件负载均衡器可以轻松扩展以适应不断增长的流量和负载需求。
  • 可靠性:硬件负载均衡器通常具有冗余和故障转移机制,以确保在单个负载均衡器故障时仍然保持系统的可用性。
  • 安全性:硬件负载均衡器可以提供一些安全功能,如防火墙、DDoS(分布式拒绝服务攻击)防护等,以增强系统的安全性。
  • 管理和监控:硬件负载均衡器通常提供简单易用的管理界面和丰富的监控工具,使管理员能够轻松配置和监控负载均衡器的性能和状态。

2.3、软件负载均衡

    是一种使用软件来实现负载均衡的技术。它在计算机系统中通过运行在普通服务器上的负载均衡软件来分发工作负载,以实现请求的均衡分配和系统性能的提升。

软件负载均衡通常采用以下几种方式来实现:

  • 软件负载均衡器:通过在一组服务器上运行负载均衡软件,该软件可以基于特定的算法(如轮询、最小连接等)将请求分发到不同的服务器上。负载均衡软件可以动态地监测服务器的负载情况,并根据负载情况进行动态调整,以实现负载均衡。
  • 反向代理服务器:反向代理服务器是一种位于客户端和服务器之间的服务器,它接收来自客户端的请求,并代表客户端向后端服务器发送请求。反向代理服务器可以使用负载均衡算法将请求分发到多个后端服务器上,以实现负载均衡。
  • 虚拟IP(VIP)或虚拟服务器:通过使用虚拟IP或虚拟服务器,多个服务器可以共享同一个IP地址或域名,客户端的请求将被分发到这些服务器中的一个。这种方式可以通过软件来实现负载均衡,将请求分发到不同的服务器上。

2.4、负载均衡算法

负载均衡可以使用多种算法来决定如何分配工作负载。常见的负载均衡算法包括:

  1. 轮询(Round Robin):按照顺序将请求依次分发到每个服务器,确保每个服务器都有机会处理请求。
  2. 最少连接(Least Connection):将请求分配给当前连接数最少的服务器,以确保负载更均衡。
  3. IP哈希(IP Hash):根据客户端的IP地址将请求分发到特定的服务器,以确保相同IP地址的请求始终被分配到同一台服务器上。
  4. 加权轮询(Weighted Round Robin):给每个服务器分配一个权重值,根据权重值决定分发请求的比例,使处理能力更强的服务器获得更多的请求。
  5. 动态负载均衡:根据服务器的实时负载情况动态地调整请求的分发策略,以适应不同负载情况下的最佳性能。

2.5、SLB

    是负载均衡(Server Load Balancing)的缩写,是一种网络技术和架构,用于将请求或流量分发到多个服务器上,以实现负载均衡和提高系统的性能、可靠性和可扩展性。

    SLB通常由一个负载均衡器(Load Balancer)和多个后端服务器(Backend Servers)组成。负载均衡器是位于客户端和后端服务器之间的中间设备,它接收来自客户端的请求并根据特定的算法将请求分发到后端服务器上。负载均衡器还监视后端服务器的状态和负载情况,并根据配置策略动态调整请求分发,以实现负载均衡。


三、使用方式

3.1、架构示意图

    这里的SLB部署在内网,位于业务服务和AI服务的中间,作为AI服务的入口,为AI服务提供集群化部署的能力

开源模型应用落地-工具使用篇-SLB(二),开源大语言模型-新手试炼,深度学习

3.2、进入腾讯云控制台入口

访问地址:https://cloud.tencent.com/

点击右上角 -》控制台

开源模型应用落地-工具使用篇-SLB(二),开源大语言模型-新手试炼,深度学习

3.3、按需选择登录方式

开源模型应用落地-工具使用篇-SLB(二),开源大语言模型-新手试炼,深度学习

3.4、进入负载均衡管控界面

在搜索框输入“SLB”或者“负载均衡”,点击“负载均衡”入口

开源模型应用落地-工具使用篇-SLB(二),开源大语言模型-新手试炼,深度学习

3.5、按需选择实例

建议跟云服务器处于一样的实例下面

开源模型应用落地-工具使用篇-SLB(二),开源大语言模型-新手试炼,深度学习

开源模型应用落地-工具使用篇-SLB(二),开源大语言模型-新手试炼,深度学习

3.6、新建实例

开源模型应用落地-工具使用篇-SLB(二),开源大语言模型-新手试炼,深度学习

3.7、选择配置

计费模式:建议选择按量计费,成本会更低

开源模型应用落地-工具使用篇-SLB(二),开源大语言模型-新手试炼,深度学习

地域:建议跟云服务器实例一致

开源模型应用落地-工具使用篇-SLB(二),开源大语言模型-新手试炼,深度学习

网络类型:此处部署在内网(PS:App的入口处网络类型是公网)

开源模型应用落地-工具使用篇-SLB(二),开源大语言模型-新手试炼,深度学习

所属网络:可以复用已有的网络或新建网络

开源模型应用落地-工具使用篇-SLB(二),开源大语言模型-新手试炼,深度学习

实例规格:选择共享性即可满足(共享型负载均衡实例每分钟并发连接数50,000,每秒新建连接数5,000,每秒查询数5,000)

开源模型应用落地-工具使用篇-SLB(二),开源大语言模型-新手试炼,深度学习

所属项目:默认项目或者自定义均可

开源模型应用落地-工具使用篇-SLB(二),开源大语言模型-新手试炼,深度学习

标签和实例名:按需设置

开源模型应用落地-工具使用篇-SLB(二),开源大语言模型-新手试炼,深度学习

勾选服务协议后点击立即购买

开源模型应用落地-工具使用篇-SLB(二),开源大语言模型-新手试炼,深度学习

3.8、配置监听器

在实例管理列表中,选择刚刚购买的实例,点击操作中的配置监听器菜单

开源模型应用落地-工具使用篇-SLB(二),开源大语言模型-新手试炼,深度学习

按需配置“HTTP/HTTPS监听器”或者“TCP/UDP/TCP SSL/QUIC监听器

此处接入AI服务,选择TCP监听器

开源模型应用落地-工具使用篇-SLB(二),开源大语言模型-新手试炼,深度学习

点击新建 -》填写基本配置(PS:8999是对外服务的端口地址)

开源模型应用落地-工具使用篇-SLB(二),开源大语言模型-新手试炼,深度学习

配置健康检查(PS:9999是AI服务的端口)

开源模型应用落地-工具使用篇-SLB(二),开源大语言模型-新手试炼,深度学习

高级选项可以根据实际业务情况进行调整

开源模型应用落地-工具使用篇-SLB(二),开源大语言模型-新手试炼,深度学习

配置会话保持(PS:AI服务是无状态的,不需要保持会话)

开源模型应用落地-工具使用篇-SLB(二),开源大语言模型-新手试炼,深度学习

点击“提交”按钮完成监听器配置

3.9、调用

完成监听器配置之后,可以在“实例管理”列表处查看到SLB对应的VIP,并修改测试页面的连接信息,调整为VIP和对应的监听端口

开源模型应用落地-工具使用篇-SLB(二),开源大语言模型-新手试炼,深度学习

3.10、监控

在“实例管理”列表处 -》选择对应的SLB实例 -》选择“监控”

开源模型应用落地-工具使用篇-SLB(二),开源大语言模型-新手试炼,深度学习


四、附带说明

4.1、本篇以腾讯云的负责均衡服务作为掏砖引玉的入门介绍,对于其他的云服务商,也是大致的流程

4.2、建议开启删除保护,避免出现误操作的情况

开源模型应用落地-工具使用篇-SLB(二),开源大语言模型-新手试炼,深度学习

4.3、公网类型的SLB(即网络入口),建议接入Web应用防火墙

4.4、在日志中心可以查询具体的访问日志信息以及仪表盘的大盘信息

开源模型应用落地-工具使用篇-SLB(二),开源大语言模型-新手试炼,深度学习文章来源地址https://www.toymoban.com/news/detail-829126.html

到了这里,关于开源模型应用落地-工具使用篇-SLB(二)的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 开源模型应用落地-工具使用篇-Spring AI-Function Call(八)

        通过“开源模型应用落地-工具使用篇-Spring AI(七)-CSDN博客”文章的学习,已经掌握了如何通过Spring AI集成OpenAI和Ollama系列的模型,现在将通过进一步的学习,让Spring AI集成大语言模型更高阶的用法,使得我们能完成更复杂的需求。   是 Spring 生态系统的一个新项目,它

    2024年03月14日
    浏览(31)
  • 开源模型应用落地-总述

            在当今社会,实际应用比纯粹理解原理和概念更为重要。即使您对某个领域的原理和概念有深入的理解,但如果无法将其应用于实际场景并受制于各种客观条件,那么与其一开始就过于深入,不如先从基础开始,实际操作后再逐步深入探索。         在这种实践至上

    2024年03月14日
    浏览(28)
  • 开源模型应用落地-业务优化篇(六)

    一、前言     经过线程池优化、请求排队和服务实例水平扩容等措施,整个AI服务链路的性能得到了显著地提升。但是,作为追求卓越的大家,绝不会止步于此。我们的目标是在降低成本和提高效率方面不断努力,追求最佳结果。如果你们在实施AI项目方面有经验,那一定会

    2024年02月22日
    浏览(25)
  • 开源模型应用落地-业务整合篇(一)

    一、前言     经过对qwen-7b-chat的部署以及与vllm的推理加速的整合,我们成功构建了一套高性能、高可靠、高安全的AI服务能力。现在,我们将着手整合具体的业务场景,以实现完整可落地的功能交付。     作为上游部门,通常会采用最常用的方式来接入下游服务。为了调用

    2024年01月20日
    浏览(25)
  • 开源模型应用落地-业务整合篇(四)

    一、前言     通过学习第三篇文章,我们已经成功地建立了IM与AI服务之间的数据链路。然而,我们目前面临一个紧迫需要解决的安全性问题,即非法用户可能会通过获取WebSocket的连接信息,顺利地连接到我们的服务。这不仅占用了大量的无效连接和资源,还对业务数据带来

    2024年01月24日
    浏览(21)
  • 开源模型应用落地-qwen模型小试-入门篇(三)

    一、前言     相信您已经学会了如何在Windows环境下以最低成本、无需GPU的情况下运行qwen大模型。现在,让我们进一步探索如何在Linux环境下,并且拥有GPU的情况下运行qwen大模型,以提升性能和效率。 二、术语     2.1. CentOS         CentOS是一种基于Linux的自由开源操作系统。

    2024年01月21日
    浏览(25)
  • 以太坊实现、语言模型应用与实用工具 | 开源日报 0817

    Go Ethereum 是以太坊协议的官方 Golang 执行层实现,可运行各种节点并提供网关访问以太坊网络;LangChain-Chatchat 是基于大语言模型的本地知识库问答应用实现,支持离线运行和多种模型接入;Shiori 是简单易用的书签管理器,支持命令行和 Web 应用程序,且可移植性强;Awesome G

    2024年02月09日
    浏览(19)
  • 开源模型应用落地-baichuan2模型小试-入门篇(三)

            相信您已经学会了如何在Windows环境下以最低成本、无需GPU的情况下运行baichuan2大模型。现在,让我们进一步探索如何在Linux环境下,并且拥有GPU的情况下运行baichuan2大模型,以提升性能和效率。     CentOS是一种基于Linux的自由开源操作系统。它是从Red Hat Enterprise Li

    2024年04月17日
    浏览(24)
  • 开源模型应用落地-qwen2模型小试-入门篇(六)

        经过前五篇“qwen模型小试”文章的学习,我们已经熟练掌握qwen大模型的使用。然而,就在前几天开源社区又发布了qwen1.5版本,它是qwen2模型的测试版本。在基于transformers的使用方式上有较大的调整,现在,我们赶紧跟上脚步,去体验一下新版本模型的推理质量。    

    2024年03月17日
    浏览(35)
  • 开源模型应用落地-chatglm3-6b模型小试-入门篇(三)

         刚开始接触AI时,您可能会感到困惑,因为面对众多开源模型的选择,不知道应该选择哪个模型,也不知道如何调用最基本的模型。但是不用担心,我将陪伴您一起逐步入门,解决这些问题。      在信息时代,我们可以轻松地通过互联网获取大量的理论知识和概念。然

    2024年04月12日
    浏览(24)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包