生产环境之负载均衡LVS+keepalived方案(5)_关键知识点

这篇具有很好参考价值的文章主要介绍了生产环境之负载均衡LVS+keepalived方案(5)_关键知识点。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

补充知识点

arp_ignore & arp_announce

https://www.cnblogs.com/lipengxiang2009/p/7451050.html
这篇博文介绍得很详细,以下主要做重点摘录及自己的一些总结:
(1)arp_ignore理解
arp_ignore参数的作用是控制系统在收到外部的arp请求时,是否要返回arp响应。
arp_ignore参数常用的取值主要有0,1,2,3~8较少用到:
0:响应任意网卡上接收到的对本机IP地址的arp请求(包括环回网卡上的地址),而不管该目的IP是否在接收网卡上。
1:只响应目的IP地址为接收网卡上的本地地址的arp请求。
2:只响应目的IP地址为接收网卡上的本地地址的arp请求,并且arp请求的源IP必须和接收网卡同网段。
3:如果ARP请求数据包所请求的IP地址对应的本地地址其作用域(scope)为主机(host),则不回应ARP响应数据包,如果作用域为全局(global)或链路(link),则回应ARP响应数据包。
4~7:保留未使用
8:不回应所有的arp请求
sysctl.conf中包含all和eth/lo(具体网卡)的arp_ignore参数,取其中较大的值生效。

(2)arp_announce理解
arp_announce的作用是控制系统在对外发送arp请求时,如何选择arp请求数据包的源IP地址。(比如系统准备通过网卡发送一个数据包a,这时数据包a的源IP和目的IP一般都是知道的,而根据目的IP查询路由表,发送网卡也是确定的,故源MAC地址也是知道的,这时就差确定目的MAC地址了。而想要获取目的IP对应的目的MAC地址,就需要发送arp请求。arp请求的目的IP自然就是想要获取其MAC地址的IP,而arp请求的源IP是什么呢? 可能第一反应会以为肯定是数据包a的源IP地址,但是这个也不是一定的,arp请求的源IP是可以选择的,控制这个地址如何选择就是arp_announce的作用)
arp_announce参数常用的取值有0,1,2。
0:允许使用任意网卡上的IP地址作为arp请求的源IP,通常就是使用数据包a的源IP。
1:尽量避免使用不属于该发送网卡子网的本地地址作为发送arp请求的源IP地址。
2:忽略IP数据包的源IP地址,选择该发送网卡上最合适的本地地址作为arp请求的源IP地址。
sysctl.conf中包含all和eth/lo(具体网卡)的arp_ignore参数,取其中较大的值生效。

keepalived日志文件

keepalived默认的日志文件位置: /var/log/message
可修改日志的输出位置:

1:vi /etc/sysconfig/keepalived
把KEEPALIVED_OPTIONS=“-D” 修改为 KEEPALIVED_OPTIONS=“-D -d -S 0”
其中 -S 指定 syslog 的 facility
2:vi /etc/rsyslog.conf
添加:

# save keepalive message also to keepalived.log
local0.*             /var/log/keepalived.log     // local0 ~ local7 用户自定义

3:运行如下命令重启服务

systemctl restart rsyslog
systemctl restart keepalived

日志级别:

debug 0 # 表示程序和系统的调试信息
info 1 # 表示一般信息
notice 2 # 表示不影响正常功能,但是需要注意的信息
warning/warn 3 # 表示可能影响正常功能,需要提醒用户注意的事件;
err/error 4 # 表示错误信息
crit 5 # 表示比较严重的信息
alert 6 # 表示必须马上处理的
emerg/panic 7 # 会导致系统不可用的

遇见的问题及处理

RS服务器在对client做响应时的数据包,会刷新交换机的mac地址表,能造成mac地址冲突吗?

不会,虽然真实服务器回复的数据包的源IP地址是VIP,但是业务数据包不会去刷新arp表,arp表刷新只根据arp协议数据包做刷新。

双主机方式会有2个VIP,也就是对外服务地址,两台同时工作的情况下,怎么实现负债均衡咧?

如果只是对外提供VIP地址,那就只能人为分别给到client。
如果有统一的域名,那就将域名绑定到2个VIP地址,让dns解析来负责负载均衡。

VIP不通,主备切换正常

virtual_ipaddress {  
    192.168.200.2     
}  
变更为:
virtual_ipaddress {
    192.168.200.2/24  
}

怎么让LVS接收所有端口流量

0 表示所有端口
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-XIjfGDLg-1685416068051)(image/2023-05-15-10-22-47.png)]
端口配置为0后,实验的结果是接收到1端口的连接后,其他端口的连接就不再转发了, 还有断开连接的bug,原因不知。

NAT模式一切正常,业务流量就是不通

原因:
LVS在将数据包(NAT到)转发到Real Server(RS服务器)服务器, 跟我们熟知的网络NAT模式不一样:NAT模式转发时源IP地址不变,即源ip地址仍然是客户端的ip地址。
这样真实服务器在恢复包时,如果有其他的网卡,特别是网卡的网络地址跟VIP一致时,网卡将从该网卡发出。

解决方案:
只保留一工作网卡,多网卡是也至少要保证按上发出的数据包也能到LVS服务器。文章来源地址https://www.toymoban.com/news/detail-472202.html

到了这里,关于生产环境之负载均衡LVS+keepalived方案(5)_关键知识点的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 【简单认识LVS+Keepalived负载均衡高可用群集】

    Keepalived 是一个基于VRRP协议来实现的LVS服务高可用方案,可以解决静态路由出现的单点故障问题。 在一个LVS服务集群中通常有主服务器(MASTER)和备份服务器(BACKUP)两种角色的服务器,但是对外表现为一个虚拟IP,主服务器会发送VRRP通告信息给备份服务器,当备份服务器收

    2024年02月15日
    浏览(39)
  • 如何部署LVS + keepalived 负载均衡高可用集群

    一、LVS架构 概念 L4和L7负载均衡的区别 keepalive故障自动切换 抢占与非抢占 二、keepalived管理LVS负载均衡器 LVS集中节点的健康检查 三、部署LVS + keeplived 高可用集群 第一步 关闭防火墙和安全机制          第二步 安装工具 第三步 手动配置模块 第四步 编辑策略配置文件 第五

    2024年02月13日
    浏览(37)
  • Lvs+KeepAlived高可用高性能负载均衡

    目录 1.环境介绍 2.配置keepalived  3.测试 1.测试负载均衡 2.测试RS高可用 3.测试LVS高可用 3.1测试lvs主服务宕机 3.2.测试lvs主服务器恢复 4.我在实验中遇到的错误 环境:centos7 RS1---RIP1:192.168.163.145            VIP 192.168.163.200 RS2---RIP2:192.168.163.146            VIP 192.168.163.200 LVS_MAST

    2024年02月10日
    浏览(43)
  • lvs+keepalived+nginx双主模式双主热备实现负载均衡

    目录 一、原理 二、真实服务器nginx配置 三、lvs的keepalived配置 3.1 配置文件 3.2 开启keepalived服务 四、测试 4.1 测试访问VIP 4.2 模拟lvs01宕机 主机名 IP nginx01 11.0.1.31 nginx01 11.0.1.31 lvs01 11.0.1.33 lvs02 11.0.1.34 VIP1 11.0.1.29 VIP2 11.0.1.30 lvs+keepalived+nginx主备模式下,lvs永远只有一台在工作,

    2024年01月25日
    浏览(27)
  • 负载均衡的综合部署练习(hproxy+keepalived和lvs-DR+keepalived+nginx+Tomcat)

    一、haproxy+keepalived haproxy 2台 20.0.0.21 20.0.0.22 nginx 2台 20.0.0.23 20.0.0.24 客户机 1台 20.0.0.30 这里没有haproxy不是集群的概念,他只是代理服务器。 访问他直接可以直接访问后端服务器 关闭防火墙 安装haproxy和环境: yum install -y pcre-devel bzip2-devel gcc gcc-c++ make tar zxvf haproxy-1.5.19.tar.g

    2024年02月06日
    浏览(33)
  • LVS-DR模式+keepalived+nginx+tomcat实现动静分离、负载均衡、高可用实验

    实验条件: test2——20.0.0.20——主服务器——ipvsadm、keepalived服务 test3——20.0.0.30——备服务器——ipvsadm、keepalived服务 nginx5——20.0.0.51——后端真实服务器1(tomcat的代理服务器)——nginx服务 nginx6——20.0.0.61——后端真实服务器2(tomcat的代理服务器)——nginx服务 tomcat——

    2024年02月08日
    浏览(53)
  • lvs DR模式+基于五台服务器部署keepalived + lvs DR模式架构(前端带路由)负载均衡的高可用集群

    lvs DR 模式+基于五台服务器部署keepalived + lvs DR模式架构(前端带路由)负载均衡的高可用集群 DR 模式一: 客户端:172.20.26.167 LVS服务器:172.20.26.198 后端服务器:172.20.26.218 后端服务器:172.20.26.210 两台后端服务器 yum install nginx tcpdump -y echo \\\"this is 26.218 page\\\" /usr/share/nginx/html/index

    2024年02月19日
    浏览(45)
  • 搭建TiDB负载均衡环境-HAproxy+KeepAlived实践

    作者: 我是咖啡哥 原文来源: https://tidb.net/blog/8e8cca1d HAProxy 提供 TCP 协议下的负载均衡能力,TiDB 客户端通过连接 HAProxy 提供的浮动 IP 即可对数据进行操作,实现 TiDB Server 层的负载均衡。同时,HAproxy部署2个节点,使用KeepAlived来实现高可用。 TiDB版本:V7.1.0 haproxy版本:2.

    2024年02月09日
    浏览(31)
  • 入站请求负载均衡解决方案 LVS 的介绍

    LVS(Linux Virtual Server)即 Linux 虚拟服务器,是一个虚拟的服务器集群系统。 通过 LVS 的负载均衡技术和 LINUX 操作系统可以实现一个高性能、高可用的 LINUX 服务器集群,它具有良好的可靠性、可扩展性和可操作性。它可以将来自客户端的请求分发到多台服务器上,实现多台服

    2024年01月19日
    浏览(27)
  • Keepalived+Lvs高可用高性能负载配置

    环境准备 IP 配置 VIP node1 192.168.134.170 LVS+Keepalived 192.168.134.100 node3 192.168.134.172 LVS+Keepalived 192.168.134.100 node2 192.168.134.171 做web服务器使用 node4 192.168.134.173 做web服务器使用 1、准备node1与node3环境(安装LVS与Keepalived)==由于只是简单的模拟测试,故环境安装使用yum即可。(LVS使用

    2024年02月13日
    浏览(42)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包