6.Mysql主从复制

这篇具有很好参考价值的文章主要介绍了6.Mysql主从复制。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

Mysql主从复制

读写分离概念:
  • 读写分离,基本的原理是让主数据库处理事务性增、改、删操作(INSERT、UPDATEDELETE),而从数据库处理SELECT查询操作。
  • 数据库复制被用来把事务性操作导致的变更同步到集群中的从数据库。
读写分离的作用:
  • 因为数据库的“写”( 写10000条数据可能要3分钟)操作是比较耗时的。
  • 但是数据库的"读"(读10000条数据可能只要5秒钟)
  • 所以读写分离,解决的是,数据库的写入,影响了查询的效率。
读写分离的作用条件:
  • 数据库不一定要读写分离,如果程序使用数据库较多时,而更新少,查询多的情况下会考虑使用。
  • 利用数据库主从同步,再通过读写分离可以分担数据库压力,提高性能
主从复制与读写分离
  • 在实际的生产环境中,对数据库的读和写都在同一个数据库服务器中,是不能满足实际需求的。无论是在安全性、高可用性还是高并发等各个方面都是完全不能满足实际需求的。
  • 因此,通过主从复制的方式来同步数据,再通过读写分离来提升数据库的并发负载能力。
  • 有点类似于rsync,但是不同的是rsync是对磁盘文件做备份,而mysql主从复制是对数据库中的数据、语句做备份
mysq支持的复制类型
  • STATEMENT:基于语句的复制。在服务器上执行sql语句,在从服务器上执行同样的语句,mysql默认采用基于语句的复制,执行效率高。
  • ROW:基于行的复制。把改变的内容复制过去,而不是把命令在从服务器上执行一遍。
  • MIXED:混合类型的复制。默认采用基于语句的复制,一旦发现基于语句无法精确复制时,就会采用基于行的复制。
主从复制的工作过程
  • Master节点将数据的改变记录成二进制日志(bin log),当Master上的数据发生改变时,则将其改变写入二进制日志中。
  • Slave节点会在一定时间间隔内对Master的二进制日志进行探测其是否发生改变,如果发生改变,则开始一个I/O线程请求 Master的二进制事件。
  • 同时Master节点为每个I/O线程启动一个dump线程,用于向其发送二进制事件,并保存至Slave节点本地的中继日志(Relay log)中,Slave节点将启动SQL线程从中继日志中读取二进制日志,在本地重放,即解析成 sql 语句逐一执行,使得其数据和 Master节点的保持一致,最后I/O线程和SQL线程将进入睡眠状态,等待下一次被唤醒。
  • 从服务器会发送确认信息到主服务器的 ACK collector线程

6.Mysql主从复制

注:

  • 中继日志通常会位于 OS 缓存中,所以中继日志的开销很小。
  • 复制过程有一个很重要的限制,即复制在 Slave上是串行化的,也就是说 Master上的并行更新操作不能在 Slave上并行操作。
配置
##关闭防火墙

systemctl stop firewalld
systemctl disable firewalld
setenforce 0

vim /etc/selinux/config
SELINUX=disabled
时间同步
###主服务器设置###
yum -y install ntp ntpdate

vim /etc/ntp.conf

--第8行--
restrict default nomodify notrap nopeer noquery
###将该行注释掉,在下面添加一行
restrict default nomodify         ##不允许客户端修改时间参数

--第21-24行--
###注释掉这四行,在下面添加一行
#server 0.centos.pool.ntp.org iburst
#server 1.centos.pool.ntp.org iburst
#server 2.centos.pool.ntp.org iburst
#server 3.centos.pool.ntp.org iburst

server ntp.aliyun.com          ##指定国内时间同步服务器


##重启服务
systemctl restart ntpd

##查看时间同步
ntpq -p
ntpdate ntp.aliyun.com

##从服务器设置##
yum -y install ntp ntpdate

systemctl restart ntpd
/usr/sbin/ntpdate 192.168.242.66			 #进行时间同步

crontab -e
*/30 * * * * /usr/sbin/ntpdate 192.168.242.66
systemctl restart crond
主服务器配置
vim /etc/my.cnf

server-id=1             ##不能重复
log-bin=mysql-bin      ###添加,主服务器开启二进制日志
binlog_format=mixed    ##二进制日志格式
	

systemctl restart mysqld

mysql -u root -p123

GRANT REPLICATION SLAVE ON *.* TO 'myslave'@'192.168.242.%' IDENTIFIED BY '123';			

FLUSH PRIVILEGES;


show master status;

###File 列显示日志名,Position 列显示偏移量

配置文件优化

vim /etc/my.cnf



###选配项	
expire_logs_days=7						
###设置二进制日志文件过期时间,默认值为0,表示logs不过期

max_binlog_size=500M					
###设置二进制日志限制大小,如果超出给定值,日志就会发生滚动,默认值是1GB

skip_slave_start=1						
###阻止从库崩溃后自动启动复制,崩溃后再自动复制可能会导致数据不一致的

###"双1设置",数据写入最安全
innodb_flush_logs_at_trx_commit=1		
###redo log(事务日志)的刷盘策略,每次事务提交时MySQL都会把事务日志缓存区的数据写入日志文件中,并且刷新到磁盘中,该模式为系统默认
sync_binlog=1							
###在进行每1次事务提交(写入二进制日志)以后,Mysql将执行一次fsync的磁盘同步指令,将缓冲区数据刷新到磁盘

###"双1设置"适合数据安全性要求非常高,而且磁盘IO写能力足够支持的业务,比如订单、交易、充值、支付消费系统。"双1模式"下,当磁盘IO无法满足业务需求时,比如11.11活动的压力。推荐一下性能较快的设置,并使用带蓄电池后备电源,防止系统断电异常。
innodb_flush_logs_at_trx_commit=2	


###每次事务提交时MySQL都会把日志缓存区的数据写入日志文件中,但是并不会同时刷新到磁盘上。该模式下,MySQL会每秒执行一次刷新磁盘操作
sync_binlog=500							
###在进行500次事务提交以后,Mysql将执行一次fsync的磁盘同步指令,将缓冲区数据刷新到磁盘
从服务器配置
vim /etc/my.cnf

server-id = 2								
###修改,注意id与Master的不同,两个Slave的id也要不同

relay-log=relay-log-bin						
###开启中继日志,从主服务器上同步日志文件记录到本地

relay-log-index=relay-log-bin.index			
###定义中继日志文件的位置和名称,一般和relay-log在同一目录

relay-log=relay-log-bin	
relay-log-index=relay-log-bin.index


systemctl restart mysqld

mysql -u root -p123

change master to master_host='192.168.242.66',
master_port=3306,
master_user='myslave',
master_password='123',
master_log_file='mysql-bin.000010',
master_log_pos=306;		

###配置同步,注意 master_log_file 和 master_log_pos 的值要与Master查询的一致

start slave;						
###启动同步,如有报错执行 reset slave;

show slave status\G					
###查看 Slave 状态
//确保 IO 和 SQL 线程都是 Yes,代表同步正常。

Slave_IO_Running: Yes				
###负责与主机的io通信

Slave_SQL_Running: Yes				
###负责自己的slave mysql进程

###一般 Slave_IO_Running: No 的可能性:
1、网络不通
2、my.cnf配置有问题
3、密码、file文件名、pos偏移量不对
4、防火墙没有关闭

配置文件优化项

###选配项
innodb_buffer_pool_size=2048M		
###用于缓存数据和索引的内存大小,让更多数据读写内存中完成,减少磁盘操作,可设置为服务器总可用内存的 70-80%

sync_binlog=0						
###MySQL不做任何强制性的磁盘刷新指令,而是依赖操作系统来刷新数据到磁盘

innodb_flush_log_at_trx_commit=2	
###每次事务log buffer会写入log file,但一秒一次刷新到磁盘

log-slave-updates=0					
###slave 从 master 复制的数据会写入二进制日志文件里,从库做为其他从库的主库时设置为 1

relay_log_recovery=1				
###当 slave 从库宕机后,假如 relay-log 损坏了,导致一部分中继日志没有处理,则自动放弃所有未执行的 relay-log, 并且重新从 master 上获取日志,这样就保证了 relay-log 的完整性。默认情况下该功能是关闭的,将 relay_log_recovery 的值设置为 1 时, 可在 slave 从库上开启该功能,建议开启。

读写分离

MySQL 读写分离原理
  • 读写分离就是只在主服务器上写,只在从服务器上读。基本的原理是让主数据库处理事务性操作,而从数据库处理 select 查询。
  • 数据库复制被用来把主数据库上事务性操作导致的变更同步到集群中的从数据库。
目前较为常见的 MySQL 读写分离分为以下两种:
基于程序代码内部实现
  • 在代码中根据 select、insert 进行路由分类,这类方法也是目前生产环境应用最广泛的。
  • 优点是性能较好,因为在程序代码中实现,不需要增加额外的设备为硬件开支;
  • 缺点是需要开发人员来实现,运维人员无从下手。
  • 但是并不是所有的应用都适合在程序代码中实现读写分离,像一些大型复杂的Java应用,如果在程序代码中实现读写分离对代码改动就较大。
基于中间代理层实现
  • 代理一般位于客户端和服务器之间,代理服务器接到客户端请求后通过判断后转发到后端数据库,有以下代表性程序。

  • MySQL-Proxy。MySQL-Proxy 为 MySQL 开源项目,通过其自带的 lua 脚本进行SQL 判断。

  • Atlas。是由奇虎360的Web平台部基础架构团队开发维护的一个基于MySQL协议数据中间层项目。它是在mysql-proxy 0.8.2版本的基础上,对其进行了优化,增加了一些新的功能特性。360内部使用Atlas运行的mysql业务,每天承载的读写请求数达几十亿条。支持事物以及存储过程。

  • Amoeba。由陈思儒开发,作者曾就职于阿里巴巴。该程序由Java语言进行开发,阿里巴巴将其用于生产环境。但是它不支持事务和存储过程。

  • Mycat。是一款流行的基于Java语言编写的数据库中间件,是一个实现了MySql协议的服务器,其核心功能是分库分表。配合数据库的主从模式还可以实现读写分离。

  • 由于使用MySQL Proxy 需要写大量的Lua脚本,这些Lua并不是现成的,而是需要自己去写。这对于并不熟悉MySQL Proxy 内置变量和MySQL Protocol 的人来说是非常困难的。
    Amoeba是一个非常容易使用、可移植性非常强的软件。因此它在生产环境中被广泛应用于数据库的代理层。

配置
Amoeba服务器配置
##关闭防火墙

systemctl stop firewalld
systemctl disable firewalld
setenforce 0

vim /etc/selinux/config
SELINUX=disabled
##安装jdk

cd /opt/
cp jdk-6u14-linux-x64.bin /usr/local/
cd /usr/local/
chmod +x jdk-6u14-linux-x64
./jdk-6u14-linux-x64.bin

//按yes,按enter

mv jdk1.6.0_14/ /usr/local/jdk1.6
##安装 Amoeba软件

mkdir /usr/local/amoeba
tar zxvf amoeba-mysql-binary-2.2.0.tar.gz -C /usr/local/amoeba/
chmod -R 755 /usr/local/amoeba/
/usr/local/amoeba/bin/amoeba
//如显示amoeba start|stop说明安装成功
##配置文件

vim /etc/profile

export JAVA_HOME=/usr/local/jdk1.6
export CLASSPATH=.:$JAVA_HOME/lib:$JAVA_HOME/jre/lib
export PATH=$JAVA_HOME/bin:$JAVA_HOME/jre/bin:$PATH
export AMOEBA_HOME=/usr/local/amoeba
export PATH=$PATH:$AMOEBA_HOME/bin

source /etc/profile
java -version
cd /usr/local/amoeba/bin
./amoeba
su
##配置 Amoeba读写分离,两个 Slave 读负载均衡##
#先在Master、Slave1、Slave2 的mysql上开放权限给 Amoeba 访问

grant all on *.* to test@'192.168.242.%' identified by '123';
配置amoeba配置文件
#再回到amoeba服务器配置amoeba服务:
cd /usr/local/amoeba/conf/

cp amoeba.xml amoeba.xml.bak

vim amoeba.xml         #修改amoeba配置文件

--30行--
<property name="user">amoeba</property>
##这个是连接 amoeba  服务器的用户名和密码

--32行-- 
<property name="password">123</property>


--115行--
<property name="defaultPool">master</property>
--117-去掉注释-
<property name="writePool">master</property>
<property name="readPool">slaves</property>
cp dbServers.xml dbServers.xml.bak

vim dbServers.xml					#修改数据库配置文件

--23行--注释掉  作用:默认进入test库 以防mysql中没有test库时,会报错
<!-- <property name="schema">test</property> -->

--26--修改
<property name="user">test</property>
--28-30--去掉注释
<property name="password">123</property>

--45--修改,设置主服务器的名Master
<dbServer name="master"  parent="abstractServer">

--48--修改,设置主服务器的地址
<property name="ipAddress">192.168.242.66</property>

--52--修改,设置从服务器的名slave1
<dbServer name="slave1"  parent="abstractServer">

--55--修改,设置从服务器1的地址
<property name="ipAddress">192.168.242.67</property>

--58--复制上面6行粘贴,设置从服务器2的名slave2和地址
<dbServer name="slave2"  parent="abstractServer">
<property name="ipAddress">192.168.242.68</property>

--65行--修改
<dbServer name="slaves" virtual="true">
--71行--修改
<property name="poolNames">slave1,slave2</property>
/usr/local/amoeba/bin/amoeba start&				
#启动Amoeba软件,按ctrl+c 返回

netstat -anpt | grep java						
#查看8066端口是否开启,默认端口为TCP 8066

MySQL主从复制延迟

  1. master服务器高并发,形成大量事务

  2. 网络延迟

  3. 主从硬件设备导致

    • cpu主频、内存io、硬盘io
  4. 是同步复制、而不是异步复制

  • 从库优化Mysql参数。
  • 比如增大innodb_buffer_pool_size,让更多操作在Mysql内存中完成,减少磁盘操作。
  • 从库使用高性能主机。包括cpu强悍、内存加大。
  • 避免使用虚拟云主机,使用物理主机,这样提升了i/o方面性。
  • 从库使用SSD磁盘
  • 网络优化,避免跨机房实现同步

MySQL主从复制的同步模式

  • 异步复制(Asynchronous replication)
    MySQL默认的复制即是异步的,主库在执行完客户端提交的事务后会立即将结果返给客户端,并不关心从库是否已经接收并处理,这样就会有一个问题,主如果crash掉了,此时主上已经提交的事务可能并没有传到从上,如果此时,强行将从提升为主,可能导致新主上的数据不完整。
  • 全同步复制(Fully synchronous replication)
    指当主库执行完一个事务,所有的从库都执行了该事务才返回给客户端。因为需要等待所有从库执行完该事务才能返回,所以全同步复制的性能必然会收到严重的影响。
  • 半同步复制(Semisynchronous replication)
    介于异步复制和全同步复制之间,主库在执行完客户端提交的事务后不是立刻返回给客户端,而是等待至少一个从库接收到并写到relay log中才返回给客户端。相对于异步复制,半同步复制提高了数据的安全性,同时它也造成了一定程度的延迟,这个延迟最少是一个TCP/IP往返的时间。所以,半同步复制最好在低延时的网络中使用。
配置
//主数据库配置
vim /etc/my.cnf				


#在 [mysqld] 区域添加下面内容
......


plugin-load=rpl_semi_sync_master=semisync_master.so			#加载mysql半同步复制的插件

rpl_semi_sync_master_enabled=ON								#或者设置为"1",即开启半同步复制功能

rpl-semi-sync-master-timeout=1000							#超时时间为1000ms,即1s

plugin-load=rpl_semi_sync_master=semisync_master.so	
rpl_semi_sync_master_enabled=ON		
rpl-semi-sync-master-timeout=1000



systemctl restart mysqld
//从数据库配置
vim /etc/my.cnf	
......

plugin-load=rpl_semi_sync_slave=semisync_slave.so
rpl_semi_sync_slave_enabled=ON

systemctl restart mysqld
查看半同步是否在运行
#主数据库执行
show status like 'Rpl_semi_sync_master_status';
show variables like 'rpl_semi_sync_master_timeout';
#从数据库执行(此时可能还是OFF状态,需要在下一步重启IO线程后,从库半同步状态才会为ON)

show status like 'Rpl_semi_sync_slave_status';

#重启从数据库上的IO线程
STOP SLAVE IO_THREAD;
START SLAVE IO_THREAD;

#在主库查询半同步状态
show status like '%Rpl_semi%';	
参数说明:

Rpl_semi_sync_master_clients              		
#半同步复制客户端的个数

Rpl_semi_sync_master_net_avg_wait_time    	
#平均等待时间(默认毫秒)

Rpl_semi_sync_master_net_wait_time        	
#总共等待时间

Rpl_semi_sync_master_net_waits            		
#等待次数

Rpl_semi_sync_master_no_times             		
#关闭半同步复制的次数

Rpl_semi_sync_master_no_tx           
#表示没有成功接收slave提交的次数

Rpl_semi_sync_master_status           
#表示当前是异步模式还是半同步模式,on为半同步

Rpl_semi_sync_master_timefunc_failures    
#调用时间函数失败的次数

Rpl_semi_sync_master_tx_avg_wait_time     
#事物的平均传输时间

Rpl_semi_sync_master_tx_wait_time     
#事物的总共传输时间

Rpl_semi_sync_master_tx_waits        
#事物等待次数

Rpl_semi_sync_master_wait_pos_backtraverse	
#可以理解为"后来的先到了,而先来的还没有到的次数"

Rpl_semi_sync_master_wait_sessions        	
#当前有多少个session因为slave的回复而造成等待

Rpl_semi_sync_master_yes_tx               
#成功接受到slave事物回复的次数
  • 当半同步复制发生超时(由rpl_semi_sync_master_timeout参数控制,默认为10000ms,即10s),会暂时关闭半同步复制,转而使用异步复制,也就是会自动降为异步工作。
  • 当 master dump 线程发送完一个事务的所有事件之后,如果在 rpl_semi_sync_master_timeout 内,收到了从库的响应, 则主从又重新恢复为半同步复制。

注:文章来源地址https://www.toymoban.com/news/detail-511462.html

  1. 在一主多从的架构中,如果要开启半同步复制,并不要求所有的从都是半同步复制。
  2. MySQL 5.7极大的提升了半同步复制的性能。
  3. 5.6 版本的半同步复制,dump thread 承担了两份不同且又十分频繁的任务:传送binlog 给 slave ,还需要等待 slave 反馈信息,而且这两个任务是串行的,dump thread 必须等待 slave 返回之后才会传送下一个 events 事务。
  4. dump thread 已然成为整个半同步提高性能的瓶颈。在高并发业务场景下,这样的机制会影响数据库整体的系统吞吐量(TPS)。
  5. 5.7 版本的半同步复制中,独立出一个 ack collector thread ,专门用于接收 slave 的反馈信息。这样 master 上有两个线程独立工作,可以同时发送 binlog 到 slave ,和接收 slave 的反馈。
    闭半同步复制,转而使用异步复制,也就是会自动降为异步工作。
  • 当 master dump 线程发送完一个事务的所有事件之后,如果在 rpl_semi_sync_master_timeout 内,收到了从库的响应, 则主从又重新恢复为半同步复制。

到了这里,关于6.Mysql主从复制的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • Docker 搭建MySQL主从复制-读写分离

    MySQL主从复制是一种常用的数据库高可用性解决方案,通过在主数据库上记录的数据变更,同步到一个或多个从数据库,实现数据的冗余备份和读写分离。在Docker环境下搭建MySQL主从复制和读写分离,不仅方便管理,还能充分发挥Docker的轻量、可移植性等特性。 在开始搭建之

    2024年02月22日
    浏览(42)
  • 【简单认识MySQL主从复制与读写分离】

    在企业应用中,成熟的业务通常数据量都比较大 单台MySQL在安全性、 高可用性和高并发方面都无法满足实际的需求 配置多台主从数据库服务器以实现读写分离 1、 MySQL的复制类型 基于语句的复制(STATEMENT, MySQL默认类型) 基于行的复制(ROW) 混合类型的复制(MIXED) 2、 MySQL主从复制

    2024年02月15日
    浏览(92)
  • MySQL数据库 主从复制与读写分离

    读写分离,基本的原理是让主数据库处理事务性增、改、删操作(INSERT、UPDATE、DELETE),而从数据库处理SELECT查询操作。数据库复制被用来把事务性操作导致的变更同步到集群中的从数据库。 因为数据库的“写”(写10000条数据可能要3分钟)操作是比较耗时的。 但是数据库

    2024年02月10日
    浏览(48)
  • 【MySQL数据库】主从复制与读写分离

    读写分离,基本的原理是让主数据库处理事务性增、改、删操作(INSERT、UPDATE、DELETE),而从数据库处理SELECT查询操作。数据库复制被用来把事务性操作导致的变更同步到集群中的从数据库。 因为数据库的“写”(写10000条数据可能要3分钟)操作是比较耗时的。 但是数据库

    2024年02月11日
    浏览(59)
  • 【数据库】mysql主从复制与读写分离

      读写分离,基本的原理是让主数据库处理事务性增、改、删操作(INSERT、UPDATE、DELETE ),而从数据库处理SELECT查询操作。数据库复制被用来把事务性操作导致的变更同步到集群中的从数据库。   因为数据库的\\\"写”(写10000条数据可能要3分钟)操作是比较耗时的。   

    2024年02月11日
    浏览(72)
  • MySQL 主从复制[异步 同步 半同步复制] 读写分离 优化 (非常重要)

    1、什么是读写分离? 读写分离,基本的原理是让主数据库处理事务性增、改、删操作(INSERT、UPDATE、DELETE),而从数据库处理SELECT查询操作。数据库复制被用来把事务性操作导致的变更同步到集群中的从数据库。 2、为什么要读写分离呢? 因为数据库的“写”(写10000条数据

    2024年02月11日
    浏览(54)
  • 【数据库七】MySQL主从复制与读写分离

    读写分离,基本的原理是让主数据库处理事务性增、改、删操作 (insert、update、delete),而 从数据库处理select查询操作 。 数据库复制被用来把事务性操作导致的变更同步到集群中的从数据库 。 因为数据库的“写”(写10000条数据可能要3分钟)操作是比较耗时的。 但是数据

    2024年02月11日
    浏览(59)
  • Mysql - 配置Mysql主从复制-keepalived高可用-读写分离集群

    目录 高可用: 为什么需要高可用呢? 高可用的主要作用: keepalived是什么?它用在哪里? 什么是VRRP协议,它的作用是什么? 搭建一个基于keepalived的高可用Mysql主从复制读写分离集群 一、项目中的IP地址配置表: 二、项目拓扑图: 项目步骤:(主从复制、读写分离、单vi

    2024年02月13日
    浏览(47)
  • python 实现对MySQL 主从复制与读写分离 --2023博客之星候选--城市赛道

    在Python中,可以使用 pymysql 库来实现对MySQL主从复制和读写分离的代码封装。以下是一个简单的示例: 在上述示例中,创建了一个名为 MySQLReplication 的类,该类用于封装主从数据库连接和执行查询的功能。在类的初始化方法中,传入主数据库和从数据库的配置信息,并创建连

    2024年02月11日
    浏览(45)
  • 第100讲:MHA+Atlas实现MySQL主从复制读写分离分布式集群

    Atlas是由 Qihoo 360, Web平台部基础架构团队开发维护的一个基于MySQL协议的数据中间层项目。它是在mysql-proxy 0.8.2版本的基础上,对其进行了优化,增加了一些新的功能特性。 Atlas是一个位于应用程序与MySQL之间中间件。在后端DB看来,Atlas相当于连接它的客户端,在前端应用看来

    2024年02月21日
    浏览(57)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包