如何使用Docker搭建ZooKeepe集群

这篇具有很好参考价值的文章主要介绍了如何使用Docker搭建ZooKeepe集群。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

1、拉取镜像

# docker pull zookeeper:3.7.1

2、创建网络

Docker创建容器时默认采用bridge网络,自行分配ip,不允许自己指定。在实际部署中,需要指定容器ip,不允许其自行分配ip,尤其在搭建集群时。可以通过docker network create指令创建自己的bridge网络 ,在创建容器时指定网络和ip即可。

# 创建自定义网络
# docker network create --driver bridge --subnet=172.168.0.0/16 --gateway=172.168.1.1 mynet
# 查看所有网络
# docker network ls

3、配置文件

a、创建目录

创建用于存放各个zookeeper节点配置文件的config

# mkdir -p /usr/local/zk_cluster/{node1/conf,node2/conf,node3/conf}

b、创建文件

# zookeeper 节点1 配置
# vi /usr/local/zk_cluster/node1/conf/zoo.cfg

# zookeeper 节点2 配置
# vi /usr/local/zk_cluster/node2/conf/zoo.cfg

# zookeeper 节点3 配置存放目录
# vi /usr/local/zk_cluster/node3/conf/zoo.cfg

内容:

# Zookeeper保存数据的目录,默认情况下,Zookeeper将写数据的日志文件也保存在这个目录里
dataDir=/data

# 事物日志存储地点,如果没提供的话使用的则是 dataDir
dataLogDir=/datalog

# 服务器之间或客户端与服务器之间维持心跳的时间间隔,也就是每个 tickTime 时间就会发送一个心跳。tickTime以毫秒为单位
tickTime=2000

# 集群中的follower服务器(F)与leader服务器(L)之间初始连接时能容忍的最多心跳数(tickTime的数量)
initLimit=5

# 集群中的follower服务器与leader服务器之间请求和应答之间能容忍的最多心跳数(tickTime的数量)
syncLimit=2

# 默认值为3,不支持以系统属性方式配置。用于配置Zookeeper在自动清理的时候需要保留的快照数据文件数量和对应的事务日志文件。此参数的最小值为3,如果配置的值小于3会自动调整到3
autopurge.snapRetainCount=3

# 默认值为0,单位为小时,不支持以系统属性方式配置。用于配置Zookeeper进行历史文件自动清理的频率。如果配置为0或负数,表示不需要开启定时清理功能
autopurge.purgeInterval=0

# 默认为60,不支持以系统属性方式配置。从Socket层面限制单个客户端与单台服务器之间的并发连接数,即以ip地址来进行连接数的限制。
# 如果设置为0,表示不做任何限制。仅仅是单台客户端与单个Zookeeper服务器连接数的限制,不能控制所有客户端的连接数总和
maxClientCnxns=60

# 3.5.0中的新功能:当设置为false时,可以在复制模式下启动单个服务器,单个参与者可以使用观察者运行,并且群集可以重新配置为一个节点,并且从一个节点。
# 对于向后兼容性,默认值为true。可以使用QuorumPeerConfig的setStandaloneEnabled方法或通过将“standaloneEnabled = false”或“standaloneEnabled = true”添加到服务器的配置文件来设置它。
standaloneEnabled=false

# 内嵌的管理控制台,停用这个服务
admin.enableServer=false

# 开启四字命令,将所有命令添加到白名单中
4lw.commands.whitelist=*

# 集群中服务的列表
server.1=172.168.0.1:2888:3888;2181
server.2=172.168.0.2:2888:3888;2181
server.3=172.168.0.3:2888:3888;2181

5、集群启动

节点1启动

# docker run -d --restart always \
--name zk-node1 \
--network mynet \
--ip 172.168.0.1 \
-p 2181:2181 \
-e ZOO_MY_ID=1 \
-v /usr/local/zk_cluster/node1/conf/zoo.cfg:/conf/zoo.cfg \
-v /usr/local/zk_cluster/node1/data:/data \
-v /usr/local/zk_cluster/node1/datalog:/datalog \
-v /usr/local/zk_cluster/node1/logs:/logs \
zookeeper:3.7.1

说明:

/usr/local/zk_cluster/node1/data:指定存放zookeeper数据的目录,若该目录不存在,则自动生成;

/usr/local/zk_cluster/node1/datalog:指定存放zookeeper数据日志目录,若该目录不存在,则自动生成;

/usr/local/zk_cluster/node1/logs:指定存放zookeeper日志目录,若该目录不存在,则自动生成;

节点2启动

# docker run -d --restart always \
--name zk-node2 \
--network mynet \
--ip 172.168.0.2 \
-p 2182:2181 \
-e ZOO_MY_ID=2 \
-v /usr/local/zk_cluster/node2/conf/zoo.cfg:/conf/zoo.cfg \
-v /usr/local/zk_cluster/node2/data:/data \
-v /usr/local/zk_cluster/node2/datalog:/datalog \
-v /usr/local/zk_cluster/node2/logs:/logs \
zookeeper:3.7.1

节点3启动

# docker run -d --restart always \
--name zk-node3 \
--network mynet \
--ip 172.168.0.3 \
-p 2183:2181 \
-e ZOO_MY_ID=3 \
-v /usr/local/zk_cluster/node3/conf/zoo.cfg:/conf/zoo.cfg \
-v /usr/local/zk_cluster/node3/data:/data \
-v /usr/local/zk_cluster/node3/datalog:/datalog \
-v /usr/local/zk_cluster/node3/logs:/logs \
zookeeper:3.7.1

6、集群状态

# 在容器 zk-node1 中开启一个交互模式的终端
[root@localhost ~]# docker exec -it zk-node1 /bin/bash
# 查看 zookeeper 状态 node1为follower
root@dce8441d0178:/apache-zookeeper-3.7.1-bin# bin/zkServer.sh status

ZooKeeper JMX enabled by default
Using config: /conf/zoo.cfg
Client port found: 2181. Client address: localhost. Client SSL: false.
Mode: follower
root@dce8441d0178:/apache-zookeeper-3.7.1-bin# exit
exit

# 在容器 zk-node2 中开启一个交互模式的终端
[root@localhost ~]# docker exec -it zk-node2 /bin/bash
# 查看 zookeeper 状态 node2为leader
root@969650dede5a:/apache-zookeeper-3.7.1-bin# bin/zkServer.sh status

ZooKeeper JMX enabled by default
Using config: /conf/zoo.cfg
Client port found: 2181. Client address: localhost. Client SSL: false.
Mode: leader
root@969650dede5a:/apache-zookeeper-3.7.1-bin# exit
exit

# 在容器 zk-node3 中开启一个交互模式的终端
[root@localhost ~]# docker exec -it zk-node3 /bin/bash
# 查看 zookeeper 状态 node3为follower
root@9a0ca305754a:/apache-zookeeper-3.7.1-bin# bin/zkServer.sh status

ZooKeeper JMX enabled by default
Using config: /conf/zoo.cfg
Client port found: 2181. Client address: localhost. Client SSL: false.
Mode: follower
root@9a0ca305754a:/apache-zookeeper-3.7.1-bin# exit
exit

7、开放端口文章来源地址https://www.toymoban.com/news/detail-680132.html

# firewall-cmd --add-port=2181/tcp --add-port=2182/tcp --add-port=2183/tcp --permanent
# firewall-cmd --reload

到了这里,关于如何使用Docker搭建ZooKeepe集群的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 云计算集群搭建记录[Hadoop|Zookeeper|Hbase|Spark | Docker |OpenStack]更新索引 |动态更新

    为了能够更好的查看所更新的文章,讲该博文设为索引 为了解决在编辑文件等操作的过程中的权限问题,博主一律 默认采用 root 账户登录 对于初次安装的用户可以采用如下命令行: 另外推荐一款终端工具:Tabby,既能够连接自己的服务器,也能够连接自己本地的虚拟机,还

    2023年04月13日
    浏览(56)
  • Windows使用docker desktop 安装kafka、zookeeper集群

    参考文章:http://t.csdn.cn/TtTYI https://blog.csdn.net/u010416101/article/details/122803105?spm=1001.2014.3001.5501 准备工作: ​ 在开始新建集群之前,新建好文件夹,用来挂载kafka、zookeeper数据,如下: zookeeper文件夹 D:softdockerzookeeperzoo1data D:softdockerzookeeperzoo1datalog D:softdockerzookeeperzoo

    2024年02月14日
    浏览(47)
  • 使用docker搭建mysql集群

    1、架构图 2、解说 mysql_1 、 mysql_2 、 mysql_3 是一组主从模式,同理 mysql_4 、 mysql_5 、 mysql_6 也是一组主从模式 从上面的图可以看出 mysql_1 和 mysql_4 是主节点,可以进行增删改查操作,但是子几点只能查询操作 如果 mysql_1 节点出现问题了,有 mysql_4 节点组正常工作 1、使用镜像创建

    2024年02月12日
    浏览(57)
  • 使用docker搭建hadoop集群

    必应壁纸供图 (img-CBr9VbGk-1687962511910)]

    2024年02月11日
    浏览(40)
  • 使用Docker搭建Redis主从集群

    欢迎来到 请回答1024 的博客 🍓🍓🍓欢迎来到 请回答1024的博客 关于博主 : 我是 请回答1024 ,一个追求数学与计算的边界、时间与空间的平衡,0与1的延伸的后端开发者。 博客特色 : 在我的博客中,开设了如下专栏( 点击可以进入专栏奥~ ): Java、MySQL、Redis、Spring、SpringB

    2024年04月24日
    浏览(44)
  • 使用docker搭建RocketMQ(非集群搭建官方镜像)

    之前在使用 RocketMQ 官方的包在搭建的时候,发现好多问题,什么修改内存大小,然后启动 broker 报错,类似 service not available now, maybe disk full 等等… 最后决定还是重新用 docker 搭建下,感觉这样子玩坏了,可以直接把容器干掉,重新启动一个新的容器,毕竟是在学习阶段,这

    2024年02月13日
    浏览(56)
  • 使用docker搭建 redis cluster 集群

    目录 1.拉取redis镜像 2.创建network 3.创建redis配置文件 4.创建redis容器 5.创建Redis Cluster集群 6.测试 1.拉取redis镜像 2.创建network docker容器创建的应用会默认使用 bridge,但是每次重启docker此网络的ip会动态变更,因此需要我们自己手动创建一个固定的network 其它虚拟网卡相关命令

    2024年02月02日
    浏览(40)
  • 使用docker 搭建nginx + tomcat 集群

    创建3个Tomcat容器,端口分别映射到 8080,8081,8082,使用数据卷挂载,分别将宿主机目录下的 /opt/module/docker/tomcat3/ROOT1/,/opt/module/docker/tomcat3/ROOT2/,/opt/module/docker/tomcat3/ROOT2/ 挂载到 容器内部的tomcat目录下的webapps目录。实现挂载的好处如下: 数据共享: 同一份数据可以被挂载到

    2024年02月13日
    浏览(38)
  • 使用Docker-Compose搭建Redis集群

    3主+3从 由于仅用于测试,故我这里只用1台服务器进行模拟 redis列表 在server上创建一个目录用于存放redis集群部署文件。这里我放的路径为/root/redis-cluster 在/opt/docker/redis-cluster目录下创建redis-1,redis-2,redis-3,redis-4,redis-5,redis-6文件夹 注意:port值不能都为6379,根据上面redis列表设

    2024年02月15日
    浏览(41)
  • Docker Swarm 集群搭建和使用 —— 筑梦之路

    swarm 集群由 管理节点 (Manager)和 工作节点 (Worker)构成。 管理节点:主要负责整个集群的管理工作包括集群配置、服务管理等所有跟集群有关的工作。诸如监控集群状态、分发任务至工作节点等操作。 工作节点:主要负责执行运行服务的任务。  官方文档:docker swarm |

    2024年02月14日
    浏览(47)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包