【创作赢红包】Nginx四——Nginx实现负载均衡的多种策略

这篇具有很好参考价值的文章主要介绍了【创作赢红包】Nginx四——Nginx实现负载均衡的多种策略。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

系列文章目录

【Nginx一】——Nginx介绍(正向代理 反向代理 负载均衡 动静分离)
【Nginx二】——Nginx常用命令 配置文件
Nginx如何处理请求
【Nginx三】——Nginx实现反向代理



前言

本篇博客主要介绍Nginx实现负载均衡的多种策略,包括轮询、最少连接、IP哈希、加权轮询、URL哈希。


一、Nginx的负载均衡是什么

Nginx可以通过反向代理实现负载均衡,有策略的分发请求给不同的后端服务器。避免单点故障,增强整个系统的可用性,从而提高系统的并发处理能力。

nginx中的反向代理实现包括HTTP的负载平衡, HTTPS,FastCGI,uwsgi,SCGI,memcached和gRPC。
要为 HTTPS 而不是 HTTP 配置负载平衡,只需使用“https” 作为协议。
为 FastCGI、uwsgi、SCGI、memcached 或 gRPC 设置负载平衡时,请分别使用 fastcgi_pass、uwsgi_pass、scgi_pass、memcached_pass 和 grpc_pass 指令。

二、负载均衡的多种策略

1.轮询(Round Robin):默认策略,将请求按顺序分配到不同的服务器上。
2.最少连接(Least Connections):将请求分配到连接数最少的服务器上。
3.IP 哈希(IP Hash):将请求的 IP 地址作为哈希键,根据哈希值分配到对应的服务器上,
4.加权负载平衡(Weighted Load Balancing):将请求按照预设的权重分配到不同的服务器上,权重越高的服务器获得的请求越多。
5.URL 哈希(URL Hash):将请求的 URL 地址作为哈希键,根据哈希值分配到对应的服务器上,确保相同的 URL 地址的请求分配到同一台服务器上。

1.轮询(Round Robin)

在轮询算法中,多个目标按照固定的顺序依次接收请求或任务。每当一个新的请求或任务到来时,轮询算法会将其分配给下一个目标,直到所有目标都接收到请求或任务,然后再从头开始。

要使用轮询策略将请求分配到不同的服务器上,可以在upstream块中制定round-robin策略:

代码如下(示例):

upstream backend {
  server 192.168.60.1;
  server 192.168.60.2;
  server 192.168.60.3;
}

server {
  listen 80;
  server_name example.com;

  location / {
    # 指定使用backend代理请求
    proxy_pass http://backend;
  }
}

在这个例子中,upstream块定义了3个后端服务器
这3个服务器会按照默认的轮询策略进行负载均衡。
在server块中,配置了请求转发,所有的请求都会被代理到backend服务器组中的一个服务器上。

2.最少连接(Least Connections)

它将请求分配到连接数最少的服务器上,从而平衡服务器的负载。使用最少连接策略可以避免出现某些服务器负载过重的情况。

在 Nginx 中,可以使用
least_conn 策略来实现最少连接的负载平衡。下面是一个使用
least_conn 策略的例子:

代码如下(示例):

upstream backend {
    least_conn;
    server 192.168.60.1;
    server 192.168.60.2;
    server 192.168.60.3;
}

server {
    listen 80;
    server_name example.com;

    location / {
        proxy_pass http://backend;
    }
}

在上面的例子中,我们定义了一个名为
backend 的服务器组,使用
least_conn 策略将请求分配到连接数最少的服务器上。我们也可以在每个
server 配置项中设置权重、最大失败次数、失败超时等参数,例如:

upstream backend {
    least_conn;
    server 192.168.60.1 weight=2 max_fails=3 fail_timeout=30s;
    server 192.168.60.2 weight=3 max_fails=2 fail_timeout=20s;
    server 192.168.60.3 max_fails=1 fail_timeout=10s;
}

server {
    listen 80;
    server_name example.com;

    location / {
        proxy_pass http://backend;
    }
}

在上面的例子中,我们将权重、最大失败次数和失败超时等参数设置在了每个 server 配置项中。这些参数可以根据实际情况进行设置,以达到更好的负载平衡效果。

3.IP 哈希(IP Hash)

IP 哈希(IP Hash)是一种负载均衡策略,它通过对客户端 IP 地址进行哈希运算,将同一个客户端的请求分配到同一台服务器上。使用 IP 哈希策略可以保证同一个客户端的请求始终被分配到同一台服务器上,从而避免因为多台服务器之间的状态不同步而导致的问题。

需要注意的是,使用 IP 哈希策略时,如果服务器组中有服务器被添加或者删除,那么会导致哈希结果发生变化,从而导致之前被分配到该服务器的请求需要重新分配。因此,在使用 IP 哈希策略时需要考虑服务器组的动态变化情况。

下面是一个使用 IP 哈希(IP Hash)策略的 Nginx 配置实例:

upstream backend {
    ip_hash;
    server 192.168.60.1;
    server 192.168.60.2;
    server 192.168.60.3;
}

server {
    listen 80;
    server_name example.com;

    location / {
        proxy_pass http://backend;
    }
}

在上面的配置中,我们定义了一个名为 backend 的服务器组,使用 ip_hash 策略将同一个客户端的请求分配到同一台服务器上。然后,在一个名为 example.com 的虚拟主机中,我们将所有请求都通过反向代理的方式转发到 backend 服务器组中。
假设客户端 A 的 IP 地址为 192.168.0.1,客户端 B 的 IP 地址为 192.168.0.2,客户端 C 的 IP 地址为 192.168.0.3,则它们的请求分配情况可能如下所示:
客户端 A 的请求被分配到了服务器 192.168.60.1 上;
客户端 B 的请求被分配到了服务器 192.168.60.2 上;
客户端 C 的请求被分配到了服务器 192.168.60.3 上。

注意 如果某个客户端的请求被分配到了某台服务器上,那么这个客户端的所有后续请求都将被分配到同一台服务器上,直到服务器组中的服务器发生变化为止。

4.加权负载平衡(Weighted Load Balancing)

它根据服务器的权重值来分配负载。每个服务器都被分配了一个权重值,权重值越高的服务器分配到的请求越多。

在 Nginx 中,可以使用 upstream 模块中的 server 指令的 weight 参数来设置服务器的权重值。例如:

upstream backend {
    server 192.168.60.1 weight=10;
    server 192.168.60.2 weight=5;
    server 192.168.60.3 weight=3;
}
server {
    listen 80;
    server_name example.com;

    location / {
        proxy_pass http://backend;
    }
}

在上面的例子中,服务器 192.168.60.1的权重值是
10,而服务器 192.168.60.2的权重值是
5,服务器 192.168.60.3 的权重值是 3。当 Nginx 收到请求时,它会按照负载因子策略,以服务器的权重值来分配请求。具体来说,如果服务器的权重值是 W,那么该服务器被分配到的请求比其他服务器多 W 倍。

需要注意的是,在使用负载因子策略时,服务器的性能和负载应该被准确地估计,以便为服务器分配合适的权重值。否则,如果权重值设置不合理,可能会导致某些服务器的负载过高或过低,从而影响整个系统的性能。

5.URL 哈希(URL Hash)

URL 哈希(URL Hash)是 Nginx 负载均衡中的一种策略,它根据请求的 URL 进行哈希运算,并将结果映射到后端服务器。通过这种方式,可以将同一 URL 的请求都分配到同一个后端服务器上,从而实现会话保持(Session Persistence)的效果。

下面是一个使用 URL 哈希策略的 Nginx 配置示例:

upstream backend {
    hash $request_uri;
    server 192.168.60.1 ;
    server 192.168.60.2 ;
    server 192.168.60.3 ;
}

server {
    listen 80;
    server_name example.com;
    location / {
        proxy_pass http://backend;
        
    }
}

这里我们使用hash指令将哈希算法设置为URL哈希,$request_uri表示使用请求的URL作为哈希值。然后定义3个后端服务器,分别为192.168.60.1和192.168.60.2和192.168.60.3 。

需要注意的是,使用 URL 哈希策略时,如果后端服务器数量发生变化,会导致哈希映射表的变化,从而可能导致一部分请求需要重新分配到其他服务器上,这可能会影响系统的性能。因此,在使用 URL 哈希策略时,应该根据具体情况进行权衡和选择。

补充: nginx的健康检查

Nginx的健康检查是指Nginx服务器通过定期向后端服务器发送检查请求,检查服务器是否能够正常响应,从而判断服务器的健康状况。健康检查对于负载均衡和高可用性非常重要,因为它可以及时发现故障服务器并将流量从故障服务器转移到正常服务器,以保证服务的可靠性和稳定性。

Nginx提供了两种健康检查的方法:基于HTTP请求的健康检查 基于TCP连接的健康检查文章来源地址https://www.toymoban.com/news/detail-407094.html

到了这里,关于【创作赢红包】Nginx四——Nginx实现负载均衡的多种策略的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • Nginx配置大全【六大使用场景、七大负载均衡策略、四大负载健康检查】

    !!! 反向代理也可以基于请求路径转发到不同服务器 !!! !!!反向代理路径结尾加不加 / 符号的区别!!! 如果只是简单的重定向操作,并且不需要进行复杂的路径重写或捕获,推荐使用 return 301 的方式来实现重定向。这样能够更直接、更高效地达到重定向的目的,避免不必要的

    2024年04月16日
    浏览(43)
  • Nginx使用场景&&Nginx基础&&Nginx的负载均衡策略&&Nginx配置文件&&Nginx+Tomcat集群示例&&Nginx部署静态网站&&根据Tomcat容器实际IP修改Nginx配置

    目录 1. Nginx使用场景 2. Nginx中的进程 2.1 Nginx中的多进程模型 2.2 多进程模式的优点: 2.3 缓存 3. Ngnix的负载均衡策略 3.1 轮询法 3.2 加权轮询 3.3 原地址哈希 3.4 最小连接数法 3.5 Fair 3.6 url_hash 3. Nginx配置文件 4. Nginx+tomcat 集群示例 4.1 下载镜像 4.2 在宿主机中创建需要挂载的目录

    2024年02月04日
    浏览(43)
  • nginx负载均衡的实现

    1、 安装nginx https://blog.csdn.net/qq_50247813/article/details/126550316 2、 修改配置文件,配置后端服务器 2.1、有3台后端服务需要实现负载均衡 172.17.0.2:80 172.17.0.3:80 172.17.0.4:80 2.2、修改配置文件,使用代理的方式实现负载均衡(默认轮询) 设置代理名字为myweb,代理到myweb实现负载 3、

    2023年04月16日
    浏览(29)
  • 使用Nginx实现负载均衡

    本文将详细介绍使用Nginx实现负载均衡的方法。 负载均衡(Load Balancing)是将传入的请求流量分发到多个后端服务器的技术,以达到消除单点故障、提高可用性、增加扩展性等目的。 负载均衡需要根据算法来决定如何将请求分发到后端服务器。常见的负载均衡算法包括: 2.2.1 轮询

    2024年02月12日
    浏览(28)
  • 配置Nginx实现负载均衡

    简介 在本教学文章中,我们将学习如何使用Nginx配置负载均衡,将流量均匀分配到多个后端服务器,从而提高应用程序的可靠性和性能。负载均衡是一种常见的应用场景,通过分配请求到多个服务器上,可以实现负载的均衡分配,增加系统的可扩展性和容错能力。本教程将介

    2024年02月13日
    浏览(49)
  • Nginx 如何实现负载均衡?

    Nginx 是一个高性能的 HTTP 和反向代理服务器,也是一个 IMAP/POP3/SMTP 代理服务器。由于其具有丰富的功能和出色的性能,Nginx 广泛应用于 Web 开发、负载均衡、反向代理等场景。在负载均衡方面,Nginx 可以实现基于轮询、IP_HASH、URL_HASH 和其他算法的负载均衡。本文将详细介绍

    2024年01月18日
    浏览(28)
  • Nginx反向代理实现负载均衡webshell

    目录 本实验所用的环境: 问题一:由于nginx采用的反向代理是轮询的方式,所以上传文件必须在两台后端服务器的相同位置上传相同的文件 问题二:我们在执行命令时,无法知道下次的请求交给哪台机器去执行我们在执行hostname -i查看当前执行机器的IP时,可以看到IP地址一

    2024年02月04日
    浏览(33)
  • nginx实现负载均衡load balance

    准备:3台服务器,一台做负载均衡器,另外两台做web服务器,建议编译安装nginx 服务器 IP LB 192.168.232.161 web1 192.168.232.162 web2 192.168.232.163 1、修改LB的配置文件 用于cpu的核心是两个,所以可以修改配置文件中的进程数为2,并将应该worker的并发数修改为2048 2、负载均衡器的配置

    2024年02月09日
    浏览(27)
  • Nginx+Tomcat实现负载均衡、动静分离

    目录 一、Nginx负载均衡实现原理 1.Nginx 实现负载均衡是通过反向代理实现  2、Nginx配置反向代理主要参数 3、动静分离原理  4、Nginx静态处理优势 5、并发量和吞吐量计算 二:7层反向代理          1、环境准备 ​2、配置Nginx Server 3、tomcat1 和tomcat2配置 4、 搭建tomcat3 5、设置

    2024年02月05日
    浏览(45)
  • Docker 安装 Nginx,并实现负载均衡

              1、获取 nginx 的镜像         2、运行 nginx 容器           3、浏览器输入 http://localhost 测试是否启动成功          4、实现 nginx 的负载均衡         5、启动多个 tomcat 容器用于实现负载均衡,我的 /usr/local/docker/xhf 文件夹里面只有一个 index.html ,

    2024年02月16日
    浏览(30)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包