ZooKeeper学习

这篇具有很好参考价值的文章主要介绍了ZooKeeper学习。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

ZooKeeper是什么

Apache ZooKeeper是一个高可用的分布式协调中间件。Goole Chubby的一个开源实现,主要解决分布式一致性问题,提供分布式锁服务。

分布式一致性问题

典型的拜占庭将军问题

分布式锁服务

Chubby提供了一种粗粒度的分布式锁服务,通过创建文件的形式实现,server向Chubby中创建文件表示加锁,创建成功则表示抢到锁。

由于Chubby没有开源,因此雅虎基于Chubby思想开发了一个类似的分布式协调组件Zookeeper,后捐献给了Apache。

zab协议 过半提交
epoch myid,zxid

2PC提交

当一个事务操作需要跨院多个分布式节点的时候,为了保持事务处理ACID特性,就需要引入一个“协调者”(TM)来同意调度所有分布式节点的执行逻辑,这些被调度的分布式节点被称为AP。TM负责调度AP的行为,并最终决定这些AP是否提交事务,整个过程分为两个阶段提交,因此叫2PC。

  • 阶段一提交事务请求
    • 事务询问,协调者向所有参与者发送事务内容,询问是否可以执行事务提交操作,并开始等待各参与者响应
    • 各参与者执行事务操作,并将Undo和Redo信息记录到日志中,尽量把提交过程中所有消耗时间的操作和准备都提前完成确保后面100%成功提交事务
    • 参与者向协调者反馈事务询问的响应,即如果成功执行返回yes,表示事务可以执行;如果执行失败返回no,表示事务不可以执行。
  • 执行事务提交
    • 协调者根据参与者的反馈情况来决定最终是否可以进行提交事务。

角色

Leader角色

领导角色,负责发起投票,处理事务请求

Follow角色

跟随者,用于接受客户端请求并返回结果,投票过程中参与投票,处理非事务请求

Observer角色

zookeeper3.3引入一个全新的服务器角色,用于观察zookeeper集群中的最新状态变化并将这些变化同步到observer服务器上。不参与任何形式的投票,且observer服务器只提供feign事务请求服务。

Zookeeper的安装部署

单机部署

将conf目录下的zoo_smaple.cfg文件复制一份重命名为zoo.cfg,修改文件中dataDir

集群部署

  1. 修改配置文件

server.1=IP1:2888:3888

server.2=IP2:2888:3888

server.3=IP3:2888:3888

2888表示zookeeper的端口,3888表示选举leader的端口

  1. 新建dataDir目录,设置myid

在每台zookeeper机器上,dataDir目录下创建myid文件,文件内容为服务器serverID,且需要确保每台都不重复

  1. 启动

服务命令

  • 启动--./bin/zkServer.sh start
  • 查看--./bin/zkServer.sh status
  • 停止--./bin/zkServer.sh stop
  • 重启--./bin/zkServer.sh restart
  • 连接服务端--zkCli.sh -timeout - -r -server ip:port

应用

节点

zookeeper节点称为ZNode是zookeeper的最小单元。每个ZNode上都可以保存数据和挂载子节点。构成一个层次性的树形结构。

ZNode包含stat-状态信息包含数据变化的时间和版本,value-值。

  • 持久节点

创建后会一直存在zookeeper服务器上,直到主动删除

  • 持久有序节点

每个节点都会为它的一级子几点维护一个顺序

  • 临时节点

生命周期和客户端会话绑定,当客户端失效则自动清理

  • 临时有序节点

在临时节点基础上增加排序

  • 容器节点

容器节点下最后一个节点被删除,容器节点自动删除

  • TTL节点

设置一个存活时间,存活时间内如果没有任何修改并且没有任何子节点自动删除

Watcher 发布订阅

zookeeper允许客户端向服务端注册一个watcher监听,当服务端的一些指定事件触发了watcher,向客户端发送一个通知。watcher是一次性的,即一旦触发后,watcher就失效。

ZooKeeper提供三种机制针对Znode进行注册监听:

  • getData(),获取指定节点value信息,并且可以注册监听,当节点创建、修改、删除时会触发相应的事件通知。
  • getChildren(),获取指定节点的所有节点,并且可以注册监听,当节点创建、修改、删除时会触发相应的事件通知。
  • existis(),判断节点是否存在,同样可以注册指定节点的监听,监听类型同getData()

权限

  • IP,通过IP地址粒度来进行权限控制。
  • Digest,通过类似于username:password
  • World,最开放的模式,World:anyone
  • Super,超级用户

分布式锁

唯一性实现

利用Zookeeper节点的特性实现分布式锁,即同级节点的唯一性,多个进程往Zookeeper的指定节点下相同名称的节点只能有一个成功,失败的节点通过Watcher机制监听,一旦监听到节点的删除事件则再次触发所有进场去写锁。

该方式容易产生惊群效应,简单来说就是如果存在很多客户端等待获取锁,当成功获取到锁的进程释放该节点后,所有处于等待的客户端都会被唤醒,此时大量子节点会被唤醒,会对Zookeeper服务器性能产生影响。

有序节点实现

每个客户端都在指定的节点下注册一个临时的有序节点,越早创建的节点编号越小,依据最小的节点获取锁。该方式只需要每个节点监听编号比自己小的节点,当比自己小的节点删除,客户端收到watcher事件,此时再判断自己的节点是否是最小的,如果是则获得锁,否则不断重复该过程。

curator分布式锁封装

curator对锁进行了封装,提供了InterProcessMutex api。除此以外还提供了leader选举,分布式队列等功能。

    public static void main(String[] args) throws Exception {
        CuratorFramework curatorFramework = CuratorFrameworkFactory.builder().
                connectString("127.0.0.1:2181").sessionTimeoutMs(50000000).
                retryPolicy(new ExponentialBackoffRetry(1000, 3)).build();
        curatorFramework.start();

        final InterProcessMutex lock=new InterProcessMutex(curatorFramework,"/locks");
        for(int i=0;i<10;i++){
            new Thread(()->{
                try {
                    lock.acquire(); //阻塞竞争锁
                    System.out.println(Thread.currentThread().getName()+"->成功获得了锁");
                } catch (Exception e) {
                    e.printStackTrace();
                }
                try {
                    Thread.sleep(400000);
                } catch (InterruptedException e) {
                    e.printStackTrace();
                }finally {
                    try {
                        lock.release(); //释放锁
                    } catch (Exception e) {
                        e.printStackTrace();
                    }
                }
            },"Thread-"+i).start();
        }
    }

Leader选举

几个参数

  1. 服务器ID(myid)

  服务器编号,编号越大在选举算法中的权重越大

  1. zxid事务id

  zxid即事务id,高32位epoch表示Leader周期变化,每一个新的Leader选举后epoch+1,低32位表示消息计数,值越大说明数据越新,在选举算法中的权重也越大

  1. 选举状态

  LOOKING-竞选状态

  FOLLOWING-随从状态,同步Leader状态,参与投票

  OBSERVING-观察状态,同步Leader状态,不参与投票

  LEADING-领导状态

选举流程

  1. 初始状态每个Server发出一个投票,投票包括myid、zxid,第一次将票投给自己并发送给集群中的其他服务器。
  2. 接受到各自服务器的投票,首先判断有效性,如是否是本轮投票(检查epoch)、是否是LOOKING状态的服务器。
  3. 选举,优先比较epoch,其次检查zxid,zxid大的优先作为Leader,如果zxid相同,比较myid,myid大的作为Leader
  4. 统计投票,判断是否存在过半的机器受到相同的投票
  5. 更改服务器状态

Curator支持两种选举方式:Leader Latch和LeaderSelector Election

Leader Latch

参与选举的节点会创建一个顺序节点,其中最小的一个做为master节点,没抢到的节点都监听前一个节点的删除事件,当master节点手动删除,或者挂了,后续节点抢占master。spark就是使用这种方式。

LeaderSelector

与Leader Latch的区别在于,LeaderSelector释放领导权后,还可以继续竞争

LeaderSelectorClient leaderSelectorClient=new LeaderSelectorClient("ClientA");
LeaderSelector leaderSelector=new LeaderSelector(curatorFramework,"/leader",leaderSelectorClient);
leaderSelector.autoRequeue();//放弃leader后还要重新参与选举
leaderSelectorClient.setLeaderSelector(leaderSelector);
leaderSelectorClient.start(); //开始选举

数据同步

zookeeper通过三个角色组成了高性能集群,在zookeeper中客户端会随机连接到任意一个节点,如果是读请求则读取数据,如果是写请求则转交给leader提交事务,然后leader会广播事务,只要有超过半数节点写入成功,则写请求提交。

ZAB协议

Zookeeper Atomic Broadcast协议是为分布式协调服务专门设计的一种支持崩溃回复的原子广播协议。包括两种基本模式:消息广播和崩溃恢复。

  • 消息广播
    过半的Follower节点完成和Leader状态同步以后,那么整个集群就会进入消息广播模式。这个时候如果有新服务器加入到集群,那么该服务器会进入数据恢复模式,且和Leader节点进行数据同步。

  实现原理:

  1. Leader收到消息请求后,将消息赋予一个全局唯一的64位id(zxid),通过zxid大小的比较实现有序特征
  2. Leader为每个follower准备了一个FIFO的队列,将带有zxid的消息做为proposal分发给所有follower
  3. follower收到proposal,先写入磁盘,然后向Leader回复ack
  4. Leader收到半数节点的ACK后,Leader就会发送commit命令,同时本地执行该消息
  5. follower收到commit命令后会提交该消息

与2PC事务不一样的地方在于,ZAB协议不会终止事务,follower要么回复ACK要么抛弃命令,Leader只要保证消息过半数就会提交,虽然在某一个时刻follower和leader状态不一致,但提升了整体性能。这种数据不一致,由ZAB协议的恢复模式同步数据。

  • 崩溃恢复
    当集群启动或者Leader节点出现网络中断宕机的时候,ZAB协议就会进入恢复模式并选举新的Leader,当Leader选举后,且集群中过半机器和该Leader节点完成数据同步,协议退出恢复模式。

  实现原理:
ZAB协议确保已经被Leader提交的事务Proposal能够提交、同时丢弃已经被跳过的事务Proposal。

  1. 如果Leader选举算法能够保证新选举出来的Leader服务器拥有集群中所有机器最高编号(zxid最大)的事务Proposal,那么就可以保证这个新选举出来的Leader具有已经提交的Proposal。
  2. zxid是64位,高32位是epoch编号,没经过一次Leader选举产生一个新的Leader则新的Leader会将epoch+1,低32位是消息计数器,没接受一个消息值+1,新Leader选举后值重置为0。这样设计的目的是确保Leader挂了之后它不会被选举。当老Leader做为follower接入新的Leader后,新的Leader会将它拥有的epoch号中未被commit的proposal清除。

Zookeeper一致性

根据zab协议的同步流程,zookeeper集群内部数据副本是基于过半提交策略,意味着它是最终一致性。加上zookeeper提供的分布式锁服务,因此它是顺序一致性。

顺序一致性是在分布式环境中实现分布式锁的基本要求,即当多个程序抢锁,未抢到锁的程序看到锁的状态是抢到锁的程序状态。文章来源地址https://www.toymoban.com/news/detail-718716.html

到了这里,关于ZooKeeper学习的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • Zookeeper笔记

    dubbo需要一个注册中心,而Zookeeper是我们在使用Dubbo是官方推荐的注册中心 Zookeeper的集群机制 Zookeeper是为了其他分布式程序提供服务的,所以不能随便就挂了。Zookeeper的集群机制采取的是 半数存活机制 。也就是整个集群节点中有半数以上的节点存活,那么整个集群环境可用

    2024年02月12日
    浏览(30)
  • 我的私人笔记(zookeeper分布式安装)

    分布式安装 1.安装前准备 (1)下载zookeeper:Index of /dist/zookeeper(当前使用为3.4.10版本) (2)安装JDK (3)拷贝zookeeper安装包到Linux系统下 (4)解压到指定目录 tar -xzvf zookeeper-3.4.10.tar.gz -C /opt/servers/ (5)修改名称 mv zookeeper-3.4.10/ zookeeper 2.配置修改 (1)修改配置文件 vi /etc/profile 添加: exp

    2024年02月10日
    浏览(39)
  • Java操作Zookeeper节点

    引入jar包: zookeeper的权限: ZooKeeper提供了如下几种验证模式(scheme): • digest:Client端由用户名和密码验证,譬如user:password,digest的密码生成方式是Sha1摘要的base64形式 • auth:不使用任何id,代表任何已确认用户。 • ip:Client端由IP地址验证,譬如172.2.0.0/24 • world:固定

    2024年02月10日
    浏览(40)
  • java连接zookeeper

    API ZooKeeper官方提供了Java API,可以通过Java代码来连接zookeeper服务进行操作。可以连接、创建节点、获取节点数据、监听节点变化等操作,具体有以下几个重要的类: ZooKeeper:ZooKeeper类是Java API的核心类,用于与ZooKeeper服务器建立连接,并提供了一系列方法来操作ZooKeeper的节点

    2024年02月05日
    浏览(65)
  • java操作zookeeper

    创建一个maven项目在pom文件里引入如下依赖: 创建一个测试类进行相关操作的测试 连接客户端 关闭客户端 创建节点 获取节点数据 查询子节点 查询节点状态信息 更新节点数据 更新节点数据,带版本号 删除节点 删除节点,必须成功 删除节点,回调函数 监听节点的创建、修

    2024年02月16日
    浏览(39)
  • ZooKeeper学习

    Apache ZooKeeper是一个高可用的分布式协调中间件。Goole Chubby的一个开源实现,主要解决分布式一致性问题,提供分布式锁服务。 分布式一致性问题 典型的拜占庭将军问题 分布式锁服务 Chubby提供了一种粗粒度的分布式锁服务,通过创建文件的形式实现,server向Chubby中创建文件

    2024年02月08日
    浏览(27)
  • Yarn与Zookeeper学习

    1.YARN是什么? yarn 分配运行资源 mapReduce的运行平台 2.YARN运行过程: 客户端与ResourceManager交互,生成临时配置文件(Application) ResourceManager根据Application信息生成Task然后生成MapReduceApplicationMaster(简称AM) AM通过和App交互申请MapTask资源,并运行MapTask任务 MapTask资源完毕,申请资源处

    2024年02月15日
    浏览(32)
  • zookeeper入门学习

    分布式 协调 组件 客户端第一次请求发给服务器2,将flag值修改为false,第二次请求被负载均衡到服务器1,访问到的flag也会是false 一旦有节点发生改变,就会通知所有监听方改变自己的值,保持数据的一致性(watch机制) = 会不会改变的太频繁了 分布式锁 后面讲述 无状态化

    2024年02月14日
    浏览(29)
  • Java中的ZooKeeper是什么?

    Java中的ZooKeeper是一个开源的分布式协调服务,它可以帮助我们管理分布式系统中的数据和配置信息。ZooKeeper是由Facebook开发的一个开源项目,它被广泛用于Facebook的分布式系统。 ZooKeeper的名称来源于动物园管理员(Zookeeper),它可以帮助我们管理动物园中的动物,比如猴子、

    2024年02月14日
    浏览(36)
  • Java——《面试题——Zookeeper篇》

    全文章节 Java——《面试题——基础篇》 Java——《面试题——JVM篇》 Java——《面试题——多线程并发篇》 Java——《面试题——Spring篇》 Java——《面试题——SpringBoot篇》 Java——《面试题——MySQL篇》​​​​​​ Java——《面试题——SpringCloud》 Java——《面试题——Dob

    2024年02月11日
    浏览(40)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包