Zookeeper下载和安装

这篇具有很好参考价值的文章主要介绍了Zookeeper下载和安装。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

Zookeeper

1.下载

官方下载地址:https://zookeeper.apache.org/

版本:apache-zookeeper-3.7.1-bin.tar.gz

2. 安装

2.1 本地安装

2.1.1 安装JDK

见:Hadoop集群搭建

2.1.2 上传安装包

使用远程工具拷贝安装包到Linux指定路径

/opt/software
2.1.3 解压到指定目录

将安装包解压到/opt/module中

[li@hadoop102 software]$ tar -zxvf apache-zookeeper-3.7.1-bin.tar.gz -C /opt/module/
2.1.4 修改安装包名称
[li@hadoop102 module]$ mv apache-zookeeper-3.7.1-bin/ zookeeper-3.7.1
2.1.5 配置修改

(1)将/opt/module/zookeeper-3.7.1/conf 这个路径下的 zoo_sample.cfg 修改为 zoo.cfg;

[li@hadoop102 conf]$ mv zoo_sample.cfg zoo.cfg

(2)打开 zoo.cfg 文件,修改 dataDir 路径:

[li@hadoop102 zookeeper-3.7.1]$ vim zoo.cfg

修改如下内容:

dataDir=/opt/module/zookeeper-3.7.1/zkData

配置参数解读:

1)tickTime = 2000:通信心跳时间,Zookeeper服务器与客户端心跳时间,单位毫秒

2)initLimit = 10:LF初始通信时限。Leader和Follower初始连接时能容忍的最多心跳数(tickTime的数量)

3)syncLimit = 5:LF同步通信时限

4)dataDir:保存Zookeeper中的数据 注意:默认的tmp目录,容易被Linux系统定期删除,所以一般不用默认的tmp目录。

5)clientPort = 2181:客户端连接端口,通常不做修改。

(3)在/opt/module/zookeeper-3.7.1/这个目录上创建 zkData 文件夹

[li@hadoop102 zookeeper-3.7.1]$ mkdir zkData
2.1.6 操作Zookeeper

(1)启动 Zookeeper

[li@hadoop102 zookeeper-3.7.1]$ bin/zkServer.sh start

(2)查看进程是否启动

[li@hadoop102 zookeeper-3.7.1]$ jps
4020 Jps
4001 QuorumPeerMain

(3)查看状态

[li@hadoop102 zookeeper-3.7.1]$ bin/zkServer.sh stutas
ZooKeeper JMX enabled by default
Using config: /opt/module/zookeeper-3.7.1/bin/../conf/zoo.cfg
Usage: /opt/module/zookeeper-3.7.1/bin/zkServer.sh [--config <conf-dir>] {start|start-foreground|stop|version|restart|status|print-cmd}

(4)启动客户端

[li@hadoop102 zookeeper-3.7.1]$ bin/zkCli.sh

(5)退出客户端:

[zk: localhost:2181(CONNECTING) 3] quit

(6)停止 Zookeeper

[li@hadoop102 zookeeper-3.7.1]$ bin/zkServer.sh stop
ZooKeeper JMX enabled by default
Using config: /opt/module/zookeeper-3.7.1/bin/../conf/zoo.cfg
Stopping zookeeper ... STOPPED

2.2 集群操作

2.2.1 集群安装

(1)集群规划

在 hadoop102、hadoop103 和 hadoop104 三个节点上都部署 Zookeeper。

(2)解压安装

  1. 在 hadoop102 解压 Zookeeper 安装包到/opt/module/目录下
[li@hadoop102 software]$ tar -zxvf apache-zookeeper-3.7.1-bin.tar.gz -C /opt/module/
  1. 修改 apache-zookeeper-3.7.1-bin 名称为 zookeeper-3.7.1
[li@hadoop102 software]$ mv apache-zookeeper-3.7.1-bin/ zookeeper-3.7.1

(3)配置服务器编号

  1. 在/opt/module/zookeeper-3.7.1/这个目录下创建 zkData
[li@hadoop102 software]$ mkdir zkDate
  1. 在/opt/module/zookeeper-3.7.1/zkData 目录下创建一个 myid 的文件
[li@hadoop102 software]$ vim myid

在文件中添加与 server 对应的编号(注意:上下不要有空行,左右不要有空格)

2
  1. 拷贝配置好的 zookeeper 到其他机器上
[li@hadoop102 software]$ xsync zookeeper-3.7.1

并分别在 hadoop103、hadoop104 上修改 myid 文件中内容为 3、4

(4)配置zoo.cfg文件

  1. 重命名/opt/module/zookeeper-3.7.1/conf 这个目录下的 zoo_sample.cfg 为 zoo.cfg
[li@hadoop102 software]$ mv zoo_sample.cfg zoo.cfg
  1. 打开zoo.cfg文件
[li@hadoop102 software]$ vim zoo.cfg
# 增加如下配置
server.2=hadoop102:2888:3888
server.3=hadoop103:2888:3888
server.4=hadoop104:2888:3888

配置参数解读:

server.A=B:C:D

  • A 是一个数字,表示这个是第几号服务器; 集群模式下配置一个文件 myid,这个文件在 dataDir 目录下,这个文件里面有一个数据 就是 A 的值,Zookeeper 启动时读取此文件,拿到里面的数据与 zoo.cfg 里面的配置信息比 较从而判断到底是哪个 server;
  • B 是这个服务器的地址;
  • C 是这个服务器 Follower 与集群中的 Leader 服务器交换信息的端口;
  • D 是万一集群中的 Leader 服务器挂了,需要一个端口来重新进行选举,选出一个新的 Leader,而这个端口就是用来执行选举时服务器相互通信的端口。
  1. 同步 zoo.cfg 配置文件
[li@hadoop102 conf]$ xsync zoo.cfg
2.2.2 集群操作

(1)分别启动Zookeeper

[li@hadoop102 zookeeper-3.7.1]$ bin/zkServer.sh start
[li@hadoop103 zookeeper-3.7.1]$ bin/zkServer.sh start
[li@hadoop104 zookeeper-3.7.1]$ bin/zkServer.sh start

(2) 查看状态

[li@hadoop102 zookeeper-3.7.1]$ bin/zkServer.sh status
[li@hadoop103 zookeeper-3.7.1]$ bin/zkServer.sh status
[li@hadoop104 zookeeper-3.7.1]$ bin/zkServer.sh status
2.2.3 集群启动停止脚本

(1)在 hadoop102 的/home/li/bin 目录下创建脚本

[li@hadoop102 bin]$ vim zk.sh

脚本中编写如下内容:

#!/bin/bash

case $1 in
"start")
	for i in hadoop102 hadoop103 hadoop104
	do
 		echo ---------- zookeeper $i 启动 ------------
		ssh $i "/opt/module/zookeeper-3.7.1/bin/zkServer.sh start"
	done
;;
"stop")
	for i in hadoop102 hadoop103 hadoop104
    do
 		echo ---------- zookeeper $i 停止 ------------ 
		ssh $i "/opt/module/zookeeper-3.7.1/bin/zkServer.sh stop"
    done
;;
"status")
	for i in hadoop102 hadoop103 hadoop104
    do
 		echo ---------- zookeeper $i 状态 ------------ 
		ssh $i "/opt/module/zookeeper-3.7.1/bin/zkServer.sh status"
	done
;;
esac

(2)增加脚本执行权限

[li@hadoop102 bin]$ chmod u+x zk.sh

(3)Zookeeper 集群启动脚本

[li@hadoop102 bin]$ zk.sh start

(4)Zookeeper 集群停止脚本

[li@hadoop102 bin]$  zk.sh stop
2.3.4 添加环境变量

在my_env.sh中配置Zookeeper环境变量,添加如下内容:

export ZK_HOME=/opt/module/zookeeper-3.7.1
export PATH=$PATH:$ZK_HOME/bin
2.3.5 分发文件

将更改过的文件同步到hadoop103,hadoop104中文章来源地址https://www.toymoban.com/news/detail-597526.html

[li@hadoop102 profile.d]$ xsync my_env.sh

到了这里,关于Zookeeper下载和安装的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • Linux CentOS下大数据环境搭建(zookeeper+hadoop+hbase+spark+scala)

    本篇文章是结合我个人学习经历所写,如果遇到什么问题或者我有什么错误,欢迎讨论。 百度网盘链接:https://pan.baidu.com/s/1DCkQQVYqYHYtPws9hWGpgw?pwd=zh1y 提取码:zh1y 软件在连接中VMwareWorkstation_V16.2.1_XiTongZhiJia的文件夹下。 双击运行安装包,这里下一步即可。 这里勾选我接受许可

    2024年04月15日
    浏览(69)
  • 大数据开发之电商数仓(hadoop、flume、hive、hdfs、zookeeper、kafka)

    1.1.1 数据仓库概念 1、数据仓库概念: 为企业制定决策,提供数据支持的集合。通过对数据仓库中数据的分析,可以帮助企业,改进业务流程、控制成本,提高产品质量。 数据仓库并不是数据的最终目的地,而是为数据最终的目的地做好准备,这些准备包括对数据的:清洗、

    2024年01月22日
    浏览(64)
  • 实操Hadoop大数据高可用集群搭建(hadoop3.1.3+zookeeper3.5.7+hbase3.1.3+kafka2.12)

    前言 纯实操,无理论,本文是给公司搭建测试环境时记录的,已经按照这一套搭了四五遍大数据集群了,目前使用还未发现问题。 有问题麻烦指出,万分感谢! PS:Centos7.9、Rocky9.1可用 集群配置 ip hostname 系统 CPU 内存 系统盘 数据盘 备注 192.168.22.221 hadoop1 Centos7.9 4 16 250G 19

    2024年02月03日
    浏览(40)
  • 大数据期资料2023 Beta版 - Hadoop、HDFS、MapReduce、Hive、ZooKeeper、Kafka、HBase详解

    了解大数据概念、Hadoop、HDFS、MapReduce、Hive、ZooKeeper、Kafka、HBase等技术,包括特点、命令操作和启动关闭方法。获取2023年大数据资料Beta版。

    2024年02月06日
    浏览(238)
  • 大数据集群搭建全部过程(Vmware虚拟机、hadoop、zookeeper、hive、flume、hbase、spark、yarn)

    1.网关配置(参照文档) 注意事项:第一台虚拟机改了,改为centos 101 ,地址为192.168.181.130 网关依然是192.168.181.2,但是一定要注意,它在D盘的文件名称是Hadoop 101,后面重新搭建的会命名文件夹为hadoop 101,hadoop 102和hadoop 103,然后发到一个总的文件夹hadoop_03里面去 VMnet8的IP地址一定

    2024年02月02日
    浏览(100)
  • zookeeper + hadoop + hbase + phoenix

    IP hostname 192.168.23.130 hadoop01 192.168.23.131 hadoop02 192.168.23.132 hadoop03 jdk-1.8 zookeeper-3.8.1 hadoop-3.2.4 hbase-2.4.15 phoenix-2.4.0-5.1.3 1、关闭防火墙 2、设置主机名 3、配置主机hosts 4、设置ssh免密登录 分发JDK安装包到其他节点 配置JDK环境变量(所有节点都需要执行) 修改zookeeper配置 添加z

    2024年02月06日
    浏览(47)
  • Hadoop高可用(主备切换)---配合Zookeeper

    HA(High Available), 高可用,是保证业务连续性的有效解决方案 ,一般有两个或两个以上的节点,分为活动节点(Active)及备用节点(Standby)。 通常把正在执行业务的称为活动节点(Active),而作为活动节点的一个备份的则称为备用节点(Standby) 。当活动节点出现问题,导致正

    2024年01月15日
    浏览(48)
  • Linux-一篇文章,速通Hadoop集群之伪分布式,完全分布式,高可用搭建(附zookeeper,jdk介绍与安装)。

    文章较长,附目录,此次安装是在VM虚拟环境下进行。文章第一节主要是介绍Hadoop与Hadoop生态圈并了解Hadoop三种集群的区别,第二节和大家一起下载,配置Linux三种集群以及大数据相关所需的jdk,zookeeper,只需安装配置的朋友可以直接跳到文章第二节。同时,希望我的文章能帮

    2024年03月19日
    浏览(53)
  • 大数据平台组件日常运维操作说明(Hadoop/Zookeeper/Kafa/ES/Mysql/Spark/Flume/Logstash/Tomcat)

    hdfs 生产环境hadoop为30台服务器组成的集群,统一安装配置,版本号为2.7.7 部署路径:/opt/hadoop 启动用户:hadoop 配置文件: /opt/hadoop/config/hdfs-site.xml /opt/hadoop/config/core-site.xml hadoopy运行环境变量配置文件: hadoop-env.sh journalnode.env datanode.env namenode.env hadoop系统服务配置文件: z

    2024年02月03日
    浏览(49)
  • Zookeeper+Hadoop+Spark+Flink+Kafka+Hbase+Hive

    Zookeeper+Hadoop+Spark+Flink+Kafka+Hbase+Hive 完全分布式高可用集群搭建 下载 https://archive.apache.org/dist/  Mysql下载地址 Index of /MySQL/Downloads/ 我最终选择 Zookeeper3.7.1 +Hadoop3.3.5 + Spark-3.2.4 + Flink-1.16.1 + Kafka2.12-3.4.0 + HBase2.4.17 + Hive3.1.3  +JDK1.8.0_391  IP规划 IP hostname 192.168.1.5 node1 192.168.1.6 node

    2024年01月23日
    浏览(52)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包