【集群】LVS+Keepalived群集

这篇具有很好参考价值的文章主要介绍了【集群】LVS+Keepalived群集。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。


前言

  在这个高度信息化的 IT 时代,企业的生产系统、业务运营、销售和支持,以及日常管理等环节越来越依赖于计算机信息和服务,对高可用(HA)技术的应用需求不断提高,以便提供持续的、不间断的计算机系统或网络服务。


一、Keepalived的概念

1. Keepalived 概述

  Keeplived是一款专为LVS和HA设计的健康检查工具。主要支持故障自动切换(Failover)和支持节点健康状态检查(Health Checking)。官方网站: http://www.keepalived.org/。

2. Keepalived 作用

  判断LVS负载调度器、节点服务器的可用性,当master主机出现故障及时切换到backup节点保证业务正常,当master故障主机恢复后将其重新加入群集并且业务重新切换回master节点。

3. Keepalived 实现原理剖析

3.1 Keepalived 工作原理

  Keepalived是一个基于VRRP热备份协议来实现服务高可用方案,可用解决静态路由器的单点故障问题。

  在一个LVS服条集群中通常有主服条器(MASTER)和备份服务器(BACKUP)两种角色的服务器,但是对外表现为一个虚拟IP(VIP),主服务器会发送VRRP通告信息给备份服务器,当备份服务器收不到VRRP消息的时候,即主服务器异常的时候,备份服务器就会接管虚拟IP,继续提供服务,从而保证了高可用性。

【集群】LVS+Keepalived群集

3.1 VRRP协议(虚拟路由冗余协议)

  VRRP是一种容错协议,它通过把几台路由设备联合组成一台虚拟的路由设备,并通过一定的机制来保证当主机的下一跳设备出现故障时,可以及时将业务切换到其它设备,从而保持通讯的连续性和可靠性。

  VRRP将局域网内的一组路由器划分在一起,称为一个备份组。备份组由一个Master路由器和多个Backup路由器组成,功能上相当于一台虚拟路由器。局域网内的主机只需要知道这个虚拟路由器的IP地址,并不需知道具体某台设备的IP地址,将网络内主机的缺省网关设置为该虚拟路由器的IP地址,主机就可以利用该虚拟网关与外部网络进行通信。

  VRRP将该虚拟路由器动态关联到承担传输业务的物理路由器上,当该物理路由器出现故障时,再次选择新路由器来接替业务传输工作,整个过程对用户完全透明,实现了内部网络和外部网络不间断通信。

4. Keepalived 主要模块及其作用

keepalived体系架构中主要有三个模块,分别是core、check和vrrp。

  • core模块:为keepalived的核心,负责主进程的启动、维护及全局配置文件的加载和解析。
  • vrrp模块:是来实现VRRP协议的。(调度器之间的健康检查和主备切换)
  • check模块:负责健康检查,常见的方式有端口检查及URL检查。(节点服务器的健康检查)

4.1 健康检查方式(学名:探针)

  发送心跳信息。例如ping/pong命令等等。

  TCP端口检查。例如向一台主机的IP:PROT发送TCP三次握手连接。

  HTTP URL检查。例如向一台主机的http://IP+PROT/...URL路径发送HTTP GET{}请求方法,主机响应返回2xx或者3xx为正常,若响应返回4xx或者5xx则认为健康检查异常。

5. 脑裂的形成和解决(重要)

5.1 什么是脑裂

  脑裂(split-brain):指在一个高可用(HA)系统中,当联系着的两个节点断开联系时,本来为一个整体的系统,分裂为两个独立节点,这时两个节点开始争抢共享资源,结果会导致系统混乱,数据损坏。

  对于无状态服务的HA,无所谓脑裂不脑裂;但对有状态服务(比如MySQL)的HA,必须要严格防止脑裂。

5.2 脑裂的形成

  Master一直发送心跳消息给backup主机,如果中间的链路突然断掉,backup主机将无法收到master主机发送过来的心跳消息(也就是vrrp报文),backup这时候会立即抢占master的工作,但其实这时候的master是正常工作的,此时就会出现脑裂的现象。

5.3 预防脑裂的发生

  • 使用shell脚本对这两个主机之间的连通性进行监测,如果发现有问题,就会立即关闭keepalived服务来防止脑裂的产生。
  • 增加一条链路作为备用链路,即使主链路挂掉了,备用链路也会顶上来,master主机可以继续给backup主机发送心跳消息。
  • 使用监控软件的方法,这边主要是采用的zabbix来监控的,主要就是创建监控项,创建触发器来测试关闭keepalived服务。
###主调度器
###判断主从调度器之间链路是否断连
ping -c 3 -i 0.5 -w 2 192.168.145.30 &> /dev/null 

if [ $? -ne 0 ];then
  ssh 192.168.145.75 ping -c 3 -i 0.5 -w 2 -I 192.168.145.75 192.168.145.30  &> /dev/null 
  if [ $? -eq 0 ];then
      systemctl stop keepalived
  fi
fi

二、LVS+Keepalived 高可用集群部署

1. 环境部署

【集群】LVS+Keepalived群集

主DR 服务器:192.168.145.15
备DR 服务器:192.168.145.30
Web 服务器1:192.168.145.45
Web 服务器2:192.168.145.60
vip:192.168.145.20
客户端:192.168.145.75

2. LVS 部署

2.1 配置负载调度器(主、备相同)

[root@localhost ~]# systemctl stop firewalld.service
[root@localhost ~]# setenforce 0
[root@localhost ~]# yum -y install ipvsadm keepalived
###加载ip_vs模块
[root@localhost ~]# modprobe ip_vs
###查看ip_vs版本信息
[root@localhost ~]# cat /proc/net/ip_vs
IP Virtual Server version 1.2.1 (size=4096)
Prot LocalAddress:Port Scheduler Flags
  -> RemoteAddress:Port Forward Weight ActiveConn InActConn

(1)配置keeplived(主、备DR 服务器上都要设置)

[root@localhost ~]#cd /etc/keepalived/
[root@localhost keepalived]# cp keepalived.conf keepalived.conf.bak
[root@localhost keepalived]# vim keepalived.conf
......
###定义全局参数
global_defs {						
###--10行--修改,邮件服务指向本地
	smtp_server 127.0.0.1
###--12行--修改,指定服务器(路由器)的名称,主备服务器名称须不同,主为LVS_01,备为LVS_02
	router_id LVS_01
###--14行到18行,注释掉,取消严格遵守VRRP协议功能,否则VIP无法被连接
	#vrrp_strict
}

###定义VRRP热备实例参数
vrrp_instance VI_1 {				
###--20行--修改,指定热备状态,主为MASTER,备为BACKUP
    state MASTER
###--21行--修改,指定承载vip地址的物理接口
    interface ens33
###--22行--修改,指定虚拟路由器的ID号,每个热备组保持一致	
    virtual_router_id 10
	#nopreempt						#如果设置非抢占模式,两个节点state必须为BACKUP,并加上配置 nopreempt
###--23行--修改,指定优先级,数值越大优先级越高,这里设置主为100,备为90
    priority 100
    advert_int 1					#通告间隔秒数(心跳频率)
    authentication {				#定义认证信息,每个热备组保持一致
		auth_type PASS				#认证类型
###--27行--修改,指定验证密码,主备服务器保持一致
        auth_pass abc123
    }
    virtual_ipaddress {				#指定群集vip地址
        192.168.145.20
    }
}
###--36行--修改,指定虚拟服务器地址(VIP)、端口,定义虚拟服务器和Web服务器池参数
virtual_server 192.168.145.20 80 {
    delay_loop 6					#健康检查的间隔时间(秒)
    lb_algo rr						#指定调度算法,轮询(rr)
###--39行--修改,指定群集工作模式,直接路由(DR)
    lb_kind DR
    persistence_timeout 0			#连接保持时间(秒)
    protocol TCP					#应用服务采用的是 TCP协议
###--43行--修改,指定第一个Web节点的地址、端口
    real_server 192.168.145.45 80 {
        weight 1					#节点的权重
###--45行--删除,添加以下健康检查方式		
        TCP_CHECK {
			connect_port 80			#添加检查的目标端口
			connect_timeout 3		#添加连接超时(秒)
			nb_get_retry 3			#添加重试次数
			delay_before_retry 3	#添加重试间隔
		}
	}

	real_server 192.168.145.60 80 {		#添加第二个 Web节点的地址、端口
        weight 1
        TCP_CHECK {
			connect_port 80
			connect_timeout 3
			nb_get_retry 3
			delay_before_retry 3
		}
	}
##删除后面多余的配置##
}
[root@localhost keepalived]# systemctl start keepalived
[root@localhost keepalived]# ip addr
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1000
    link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
    inet 127.0.0.1/8 scope host lo
       valid_lft forever preferred_lft forever
    inet6 ::1/128 scope host 
       valid_lft forever preferred_lft forever
2: ens32: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP group default qlen 1000
    link/ether 00:0c:29:33:c5:93 brd ff:ff:ff:ff:ff:ff
    inet 192.168.145.15/24 brd 192.168.145.255 scope global noprefixroute ens32
       valid_lft forever preferred_lft forever
    inet 192.168.145.20/32 scope global ens32
       valid_lft forever preferred_lft forever
    inet6 fe80::fd54:3fb4:558d:82fb/64 scope link noprefixroute 
       valid_lft forever preferred_lft forever
3: virbr0: <NO-CARRIER,BROADCAST,MULTICAST,UP> mtu 1500 qdisc noqueue state DOWN group default qlen 1000
    link/ether 52:54:00:e4:ec:73 brd ff:ff:ff:ff:ff:ff
    inet 192.168.122.1/24 brd 192.168.122.255 scope global virbr0
       valid_lft forever preferred_lft forever
4: virbr0-nic: <BROADCAST,MULTICAST> mtu 1500 qdisc pfifo_fast master virbr0 state DOWN group default qlen 1000
    link/ether 52:54:00:e4:ec:73 brd ff:ff:ff:ff:ff:ff

(2)启动 ipvsadm 服务

[root@localhost keepalived]# ipvsadm-save > /etc/sysconfig/ipvsadm
[root@localhost keepalived]# systemctl start ipvsadm
[root@localhost keepalived]# ipvsadm -ln
IP Virtual Server version 1.2.1 (size=4096)
Prot LocalAddress:Port Scheduler Flags
  -> RemoteAddress:Port           Forward Weight ActiveConn InActConn
TCP  127.0.0.1:80 rr
TCP  192.168.145.20:80 rr
  -> 192.168.145.45:80            Route   1      0          0         
  -> 192.168.145.60:80            Route   1      0          0 

(3)调整 proc 响应参数,关闭Linux 内核的重定向参数响应

[root@localhost ~]# vim /etc/sysctl.conf
net.ipv4.conf.all.send_redirects = 0
net.ipv4.conf.default.send_redirects = 0
net.ipv4.conf.ens33.send_redirects = 0
###刷新
[root@localhost ~]# sysctl -p
net.ipv4.conf.all.send_redirects = 0
net.ipv4.conf.default.send_redirects = 0
net.ipv4.conf.ens32.send_redirects = 0

2.2 配置节点服务器

(1)关闭防火墙,安装httpd服务

[root@localhost ~]#[root@localhost ~]#systemctl stop firewalld
[root@localhost ~]#setenforce 0

[root@localhost ~]# yum -y install httpd
[root@localhost ~]# systemctl start httpd

(2)设置访问网页

###--192.168.145.45---
[root@localhost ~]# echo 'this is accp web!' > /var/www/html/index.html

###--192.168.145.60---
[root@localhost ~]# echo 'this is benet web!' > /var/www/html/index.html

(3)网卡配置以及配置虚拟VIP地址

[root@localhost ~]# vim /etc/sysconfig/network-scripts/ifcfg-lo:0
DEVICE=lo:0
ONBOOT=yes
IPADDR=192.168.145.20
###注意:子网掩码必须全为 1
NETMASK=255.255.255.255

[root@localhost ~]#service network restart
###启动环回网卡
[root@localhost ~]#ifup lo:0
###启动环回网卡
[root@localhost ~]#ifconfig lo:0
lo:0: flags=73<UP,LOOPBACK,RUNNING>  mtu 65536
        inet 192.168.145.20  netmask 255.255.255.255
        loop  txqueuelen 1000  (Local Loopback)
[root@localhost ~]#route add -host 192.168.145.20 dev lo:0
###调整内核的 ARP 响应参数以阻止更新 VIP 的 MAC 地址,避免发生冲突
[root@localhost ~]#vim /etc/sysctl.conf
net.ipv4.conf.lo.arp_ignore = 1
net.ipv4.conf.lo.arp_announce = 2
net.ipv4.conf.all.arp_ignore = 1
net.ipv4.conf.all.arp_announce = 2
###刷新
[root@localhost ~]#sysctl -p
net.ipv4.conf.lo.arp_ignore = 1
net.ipv4.conf.lo.arp_announce = 2
net.ipv4.conf.all.arp_ignore = 1
net.ipv4.conf.all.arp_announce = 2

2.3 测试验证

在客户端访问 http://192.168.145.20/ 
再在主服务器关闭 keepalived 服务后再测试
systemctl stop keepalived

【集群】LVS+Keepalived群集

三、常见问题

1. Keepalived 通过什么判断哪台主机为主服务器,通过什么方式配置浮动IP?

  Keepalived首先做初始化先检查state状态,master为主服务器,backup为备服务器。

  然后再对比所有服务器的priority,谁的优先级高谁是最终的主服务器。

  优先级高的服务器会通过ip命令为自己的电脑配置一个提前定义好的浮动IP地址。

2. keepalived 的抢占与非抢占模式

  抢占模式即MASTER从故障中恢复后,会将VIP从BACKUP节点中抢占过来。非抢占模式即MASTER恢复后不抢占BACKUP升级为MASTER后的VIP。

  非抢占式俩节点state必须为bakcup,且必须配置nopreempt

[root@localhost ~]# vim /etc/keepalived/keepalived.conf
vrrp_instance VI_1 {
	state BACKUP
	nopreempt
	interface ens32
	virtual router_id 51
	priority 100
	advert_int 1
	authentication{
		auth_type PASS
		auth_pass 1111
	}
	virtual ipaddress {
	192.168.80.188
	}
}

  注意:这样配置后,我们要注意启动服务的顺序,优先启动的获取master权限,与优先级没有关系了。

四、Nginx+keepalived高可用集群部署

【集群】LVS+Keepalived群集

1. 环境部署

主调度器
192.168.145.15
从调度器
192.168.145.30
vip地址
192.168.145.20

2. Nginx 部署

[root@localhost ~]# systemctl stop firewalld.service
[root@localhost ~]# setenforce 0
[root@localhost ~]# yum -y install ipvsadm keepalived
###加载ip_vs模块
[root@localhost ~]# modprobe ip_vs
###查看ip_vs版本信息
[root@localhost ~]# cat /proc/net/ip_vs
IP Virtual Server version 1.2.1 (size=4096)
Prot LocalAddress:Port Scheduler Flags
  -> RemoteAddress:Port Forward Weight ActiveConn InActConn

2.1 配置负载调度器(主、备相同)

[root@localhost ~]# vim keepalived.conf
......
global_defs {
	smtp_server 127.0.0.1
	router_id Nginx_01
	#vrrp_strict
}

vrrp_script chk_nginx {
    ###指定监控脚本的路径
    script "/etc/keepalived/nginx_check.sh"
    ###检测的间隔时间
    interval 2
    ###权重
    weight 2
}

###定义VRRP热备实例参数
vrrp_instance VI_1 {				
###--20行--修改,指定热备状态,主为MASTER,备为BACKUP
    state MASTER
###--21行--修改,指定承载vip地址的物理接口
    interface ens33
###--22行--修改,指定虚拟路由器的ID号,每个热备组保持一致	
    virtual_router_id 10
	#nopreempt						#如果设置非抢占模式,两个节点state必须为BACKUP,并加上配置 nopreempt
###--23行--修改,指定优先级,数值越大优先级越高,这里设置主为100,备为90
    advert_int 1					
    authentication {				
		auth_type PASS
        auth_pass 1111
    }
    virtual_ipaddress {
        192.168.145.20
    }
     ###加载追踪模块
    track_script {                  
        chk_nginx
    }
}

###检测nginx是否启动的脚本
[root@localhost ~]# vim /etc/keepalived/nginx_check.sh
#!/bin/bash
if ! killall -0 nginx  &> /dev/null
then
    systemctl stop keepalived
fi

###给脚本添加执行权限
[root@localhost ~]# chmod +x nginx_check.sh

2.2 配置Nginx四层负载均衡

  参考负载均衡博客。

3. 测试验证

在客户端访问 http://192.168.145.20/ 
再在主服务器关闭 nginx 服务后再测试,看keepalived服务是否同时关闭,VIP是否转移,再次启动

【集群】LVS+Keepalived群集

五、总结

1. 一个合格的集群应该具有的特性

  • 负载均衡:LVSNginxHaproxy
  • 给调度器/节点服务器健康检查:KeepalivedHeartbeat
  • 故障转移

2. 脑裂相关问题

脑裂的形成和如何预防脑裂文章来源地址https://www.toymoban.com/news/detail-489675.html

到了这里,关于【集群】LVS+Keepalived群集的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • LVS+Keepalived群集

    专门为LVS 和 HA 设计的一款健康检查工具 专为LVS和HA设计的一款健康检查工具,支持故障自动切换(Failover)以及节点健康状态检查(Health Checking)。判断LVS负载调度器、节点服务器的可用性,当master主机出现故障及时切换到 backup 节点保证业务正常,当 master故障主机恢复后将

    2024年02月09日
    浏览(44)
  • LVS+Keepalived 群集部署

    目录 一、 Keepalived工具介绍 二、keepalived 服务重要功能  2.1 管理 LVS 负载均衡软件 2.2 支持故障自动切换(Failover) 2.3 实现 LVS 集群中节点的健康检查(Health Checking) 2.4 实现 LVS 负载调度器、节点服务器的高可用性(HA) 三、keepalived 高可用故障切换转移原理 四、keepalived 体

    2024年02月13日
    浏览(32)
  • LVS+Keepalived 高可用群集

    一.背景   企业应用中,单点服务器承担应用存在单点故障的危险   单点故障一旦发生,企业服务将发生中断,造成极大的危害   为解决单点故障,而引入keepalived 专为LVS和HA设计的一款健康检查工具 支持故障自动切换(Failover) 支持节点健康状态检查(Health Checking) 判断LVS负载

    2024年04月12日
    浏览(39)
  • LVS +Keepalived高可用群集

    Keepalived是一种用于实现高可用性的软件,它主要用于服务器和网络设备的故障转移和负载均衡。Keepalived使用VRRP协议来实现故障转移,并结合健康检查和负载均衡算法来确保服务的高可用性。 Keepalived 是一个基于VRRP协议来实现的LVS服务高可用方案,可以解决静态路由出现的单

    2024年02月13日
    浏览(46)
  • LVS +Keepalived 高可用群集部署

    在这个高度信息化的 IT 时代,企业的生产系统、业务运营、销售和支持,以及日常管理等环节越来越依赖于计算机信息和服务,对高可用(HA)技术的应用需求不断提高,以便提供持续的、不间断的计算机系统或网络服务。 Keepalived是一个基于VRRP协议来实现的LVS服务高可用方

    2024年02月09日
    浏览(48)
  • LVS+Keepalived 高可用群集实战部署

    1.LVS Linux虚拟服务器(Linux Virtual Server) LVS 实际上相当于基于IP地址的虚拟化应用, 为基于IP地址和内容请求分发的负载均衡提出了一种高效的解决方法 2、Keepalived工作原理和作用 Keepalived 是一个基于VRRP协议来实现的LVS高可用方案,可以解决静态路由出现的单点故障问题。 在一

    2024年02月08日
    浏览(42)
  • 【Web服用应用】LVS+Keepalived群集

    Keepalived 是一个基于VRRP协议来实现的LVS服务高可用方案,可以解决静态路由出现的单点故障问题。 在一个LVS服务集群中通常有主服务器(MASTER)和备份服务器(BACKUP)两种角色的服务器,但是对外表现为一个虚拟IP(VIP),主服务器会发送VRRP通告信息给备份服务器,当备份服

    2024年02月09日
    浏览(39)
  • 【简单认识LVS+Keepalived负载均衡高可用群集】

    Keepalived 是一个基于VRRP协议来实现的LVS服务高可用方案,可以解决静态路由出现的单点故障问题。 在一个LVS服务集群中通常有主服务器(MASTER)和备份服务器(BACKUP)两种角色的服务器,但是对外表现为一个虚拟IP,主服务器会发送VRRP通告信息给备份服务器,当备份服务器收

    2024年02月15日
    浏览(45)
  • LVS-DR+keepalived实现高可用负载群集

    VRRP 通信原理: VRRP就是虚拟路由冗余协议,它的出现就是为了解决静态路由的单点故障。 VRRP是通过一种竞选的一种协议机制,来将路由交给某台VRRP路由。 VRRP用IP多播的方式(多播地址224.0.0.18)来实现高可用的通信,工作时主节点发包,备节点接收包,当备节点接收不到主

    2024年02月12日
    浏览(42)
  • 【群集】——keepalived+LVS-DR+GFS+zabbix

    目录 🍋拓扑图 🍋案例实施 🍒1、环境配置 🍒1.1、配置IP地址 🍒1.2、GFS添加磁盘 🍈2、Keepalived 🍈2.1、配置主调度器 🍈2.2、配置备份调度器 🍓3、LVS-DR 🍓3.1、负载均衡 🍓3.1.1、关闭icmp重定向 🍓3.1.2、配置负载分配策略 🍓3.2、配置主调度器 🍓3.3、配置备份调度器 🍌

    2024年01月21日
    浏览(36)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包