Kafka集群安装部署(自带zookeeper)

这篇具有很好参考价值的文章主要介绍了Kafka集群安装部署(自带zookeeper)。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

•Kafka将消息以topic为单位进行归纳。
将向Kafka topic发布消息的程序成为producers.
将预订topics并消费消息的程序成为consumer.
•Kafka
以集群的方式运行,可以由一个或多个服务组成,每个服务叫做一个broker.
producers
通过网络将消息发送到Kafka集群,集群向消费者提供消息,如下图所示:

kafka自带zookeeper,kafka,java-zookeeper,zookeeper

客户端和服务端通过TCP协议通信。Kafka提供了Java客户端,并且对多种语言都提供了支持。

环境准备

kafka版本:kafka_2.11-1.0.0.tgz
三台主机IP:192.168.225.3192.168.225.4192.168.225.5

 文章来源地址https://www.toymoban.com/news/detail-687516.html

安裝配置工作

1kafka安裝

  下载后解压kafka,将其解压到/usr/local目录下,删除压缩包即可:

tar xzvf kafka_2.11-1.0.0.tgz  #解压

  进入到kafkaconfig目录

kafka自带zookeeper,kafka,java-zookeeper,zookeeper

  自定义目录:

首先新建kafka的日志目录和zookeeper数据目录,因为这两项默认放在tmp目录,而tmp目录中内容会随重启而丢失,所以我们自定义以下目录:

mkdir /usr/local/kafka_2.-1.0./zookeeper        #创建zookeeper数据目录

mkdir /usr/local/kafka_2.-1.0./log              #创建日志目录

mkdir /usr/local/kafka_2.-1.0./log/zookeeper    #创建zookeeper日志目录

mkdir /usr/local/kafka_2.-1.0./log/kafka        #创建kafka日志目录

2zookeeper配置

  修改 zookeeper.properties

进入config目录下,修改关键配置如下,3台服务器的zookeeper.properties配置文件都一样

#修改为自定义的zookeeper数据目录
dataDir=/usr/local/kafka_2.-1.0./zookeeper
#修改为自定义的zookeeper日志目录
dataLogDir=/usr/local/kafka_2.-1.0./log/zookeeper
# 端口
clientPort=
#注释掉
#maxClientCnxns=
#设置连接参数,添加如下配置
tickTime=2000    #zk的基本时间单元,毫秒
initLimit=10     #Leader-Follower初始通信时限 tickTime*10
syncLimit=5     #Leader-Follower同步通信时限 tickTime*5
#设置broker Id的服务地址
server.=172.16.10.91::
server.=172.16.10.92::
server.=172.16.10.93::

> zookeeper数据目录添加myid配置

在各台服务器的zookeeper数据目录【/usr/local/kafka_2.11-1.0.0/zookeeper】添加myid文件,写入服务broker.id属性值

如这里的目录是/usr/local/kafka_2.11-1.0.0/zookeeper

注:3台服务器都要添加myid文件,但值的內容不一样,具体关系请见下图:

kafka自带zookeeper,kafka,java-zookeeper,zookeeper 

例如:第一台broker.id0的服务到该目录【/usr/local/kafka_2.11-1.0.0/zookeeper】下执行以下命令,会生成myid文件內容

[root@mmc config]# echo 0 > myid(无法写入myid)

kafka自带zookeeper,kafka,java-zookeeper,zookeeper

 

采用Vi  myid,写入“0

kafka自带zookeeper,kafka,java-zookeeper,zookeeper

 

3kafka配置

  进入config目录下,修改server.properties文件

注:3台服务器都要配置,其中【broker.idadvertised.listeners】不一样,其它配置都一样

############################# Server Basics #############################
# broker 的全局唯一编号,不能重复
broker.id=1
############################# Socket Server Settings #############################
# 配置监听,修改为本机ip
advertised.listeners=PLAINTEXT://172.16.10.91:9092
# 处理网络请求的线程数量,默认
num.network.threads=
# 用来处理磁盘IO的线程数量,默认
num.io.threads=
# 发送套接字的缓冲区大小,默认
socket.send.buffer.bytes=
# 接收套接字的缓冲区大小,默认
socket.receive.buffer.bytes=
# 请求套接字的缓冲区大小,默认
socket.request.max.bytes=
############################# Zookeeper #############################
# 配置三台服务zookeeper连接地址
zookeeper.connect=172.16.10.91:2181,172.16.10.92:2181,172.16.10.93:2181
############################# Log Basics #############################
# kafka 运行日志存放路径
log.dirs=/usr/local/kafka_2.11-1.0.0/log/kafka
# topic 在当前broker上的分片个数,与broker保持一致
num.partitions=3
# 用来恢复和清理data下数据的线程数量,默认
num.recovery.threads.per.data.dir=
############################# Log Retention Policy #############################
# segment文件保留的最长时间,超时将被删除,默认
log.retention.hours=
# 滚动生成新的segment文件的最大时间,默认
log.roll.hours=

4kafka启动

  kafka启动时先启动zookeeper,再启动kafka;关闭时相反,先关闭kafka,再关闭zookeeper

  • 进入kafka根目录

[root@localhost kafka_2.-1.0.]# cd /usr/local/kafka_2.-1.0./

  • 启动zookeeper

  输入命令:

[root@localhostkafka_2.-1.0.]# bin/zookeeper-server-start.sh config/zookeeper.properties &

#后台启动命令:
 

[root@localhostkafka_2.-1.0.]# nohup bin/zookeeper-server-start.sh config/zookeeper.properties >log/zookeeper/zookeeper.log 2>1 &

查看log/zookeeper/zookeeper.log 文件,第12台服务器启动的時候,会报错Connection refused,因为另外12台服务器还没有启动,先不用管它

kafka自带zookeeper,kafka,java-zookeeper,zookeeper

 

查看log/zookeeper/zookeeper.log 文件,等3台服务器都启动完成后,就不在报错了

  • 启动kafka

  输入命令:

[root@localhostkafka_2.-1.0.]# bin/kafka-server-start.sh config/server.properties &
 

#后台启动命令

备注:nohup命令

nohup 英文全称 no hang up(不挂起),用于在系统后台不挂断地运行命令,退出终端不会影响程序的运行。

[root@localhostkafka_2.-1.0.]# nohup bin/kafka-server-start.sh config/server.properties >log/kafka/kafka.log 2>1 &

  查看log/kafka/kafka.log 文件,启动过程中没有报错,且有以下信息输出,说明启动成功

kafka自带zookeeper,kafka,java-zookeeper,zookeeper

 

5kafka测试验证

  分别启动三台机器的zookeeper,三台机器的zookeeper都启动成功后,再分别启动三台机器的kafka

  • 进入kafka根目录

[root@localhost kafka_2.-1.0.]# cd /usr/local/kafka_2.-1.0./

  • 在某台服务器上创建topic,名称为test

[root@localhost kafka_2.11-1.0.0]# bin/kafka-topics.sh --create --zookeeper 172.16.10.91:2181,172.16.10.92:2181,172.16.10.93:2181 --replication-factor 3 --partitions 3 --topic test

命令解析:

--create:          #指定创建topic动作

--topic:          #指定新建topic的名称

--zookeeper        #指定kafka连接zk的连接url,该值和server.properties文件中的配置项{zookeeper.connect}一样

--partitions 3       #指定当前创建的kafka分区数量,默认为1

--replication-factor   #指定每个分区的副本集数量,不能大于 broker 节点数量,多了也没用,1个节点放>=2个副本挂了都完蛋。

kafka自带zookeeper,kafka,java-zookeeper,zookeeper

 

  • 查看topic,确认topic创建成功

[root@localhost kafka_2.-1.0.]# bin/kafka-topics.sh --list --zookeeper 172.16.10.91:2181

kafka自带zookeeper,kafka,java-zookeeper,zookeeper

 

  • 查看topic,详细信息

[root@localhost kafka_2.-1.0.]# bin/kafka-topics.sh --describe --zookeeper 172.16.10.93:2181 --topic test

可以描述为:Topic分区数/副本数/副本Leader/副本ISR等信息:

kafka自带zookeeper,kafka,java-zookeeper,zookeeper

 

  “leader”:该节点负责该分区的所有的读和写,每个节点的leader都是随机选择的。
  “replicas”:备份的节点列表,无论该节点是否是leader或者目前是否还活着,只是显示。
  “isr”:同步备份的节点列表,也就是活着的节点并且正在同步leader
  
   其中ReplicasIsr中的1,2,0就对应着3broker他们的broker.id属性!

  • 在某台服务器上创建生产者(注意默认端口号是9092)

[root@localhost kafka_2.-1.0.]# bin/kafka-console-producer.sh --broker-list 172.16.10.91: 9092,172.16.10.92: 9092,172.16.10.93: 9092 --topic test

kafka自带zookeeper,kafka,java-zookeeper,zookeeper

 

  • 在另外两台服务器上创建消费者(注意默认端口号是9092)

[root@localhost kafka_2.-1.0.]# bin/kafka-console-consumer.sh --bootstrap-server 172.16.10.91:9092,172.16.10.92: 9092,172.16.10.93: 9092 --topic test --from-beginning

  

  • 生产者服务器截图
  • kafka自带zookeeper,kafka,java-zookeeper,zookeeper

 

  • 消费者服务器截图
  • kafka自带zookeeper,kafka,java-zookeeper,zookeeper

 

  • 修改topic信息

bin/kafka-topics.sh --zookeeper 192.168.187.146: --alter --topic test --config max.message.bytes=
 

bin/kafka-topics.sh --zookeeper 192.168.187.146: --alter --topic test --delete-config max.message.bytes
 

bin/kafka-topics.sh --zookeeper 192.168.187.146: --alter --topic test --partitions
 

bin/kafka-topics.sh --zookeeper 192.168.187.146: --alter --topic test --partitions  ## Kafka分区数量只允许增加,不允许减少

  • 删除topic

注意,只是删除Topiczk的元数据,日志数据仍需手动删除

[root@localhost kafka_2.-1.0.]# bin/kafka-topics.sh -delete --zookeeper 172.16.10.91:,172.16.10.92:,172.16.10.93: --topic test

kafka自带zookeeper,kafka,java-zookeeper,zookeeper

 

Note: This will have no impact if delete.topic.enable is not set to true.## 默认情况下,删除是标记删除,没有实际删除这个Topic;如果运行删除Topic,两种方式:
  方式一:通过delete命令删除后,手动将本地磁盘以及zk上的相关topic的信息删除即可
  方式二:配置server.properties文件,给定参数delete.topic.enable=true,重启kafka服务,此时执行delete命令表示允许进行Topic的删除

  • 查看kafka未消费的消息

[root@localhost kafka_2.11-1.0.0]# bin/kafka-console-consumer.sh --bootstrap-server 172.16.10.91:9092,172.16.10.92:9092,172.16.10.93:9092 --topic logstash-busi-2 --from-beginning

kafka自带zookeeper,kafka,java-zookeeper,zookeeper

 

  • 查看kafka消费进度

命令:bin/kafka-consumer-groups.sh --bootstrap-server <Kafka broker 连接信息> --describe --group <group 名称>

bin/kafka-consumer-groups.sh --bootstrap-server 172.16.10.91:9092,172.16.10.92:9092,172.16.10.93:9092 --describe --group terminalMonitor

kafka自带zookeeper,kafka,java-zookeeper,zookeeper

 

 

到了这里,关于Kafka集群安装部署(自带zookeeper)的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • Zookeeper、Kafka集群与Filebeat+Kafka+ELK架构、部署实例

    Zookeeper是一个开源的分布式的,为分布式框架提供协调服务的Apache项目。 Zookeeper:一个领导者(Leader),多个跟随者(Follower)组成的集群。 Zookeeper集群中只要有半数以上节点存活,Zookeeper集群就能正常服务。所以Zookeeper适合安装奇数台服务器。 全局数据一致:每个Server保

    2024年02月08日
    浏览(50)
  • 分布式应用:Zookeeper 集群与kafka 集群部署

    目录 一、理论 1.Zookeeper   2.部署 Zookeeper 集群 3.消息队列  4.Kafka 5.部署 kafka 集群 6.Filebeat+Kafka+ELK 二、实验 1.Zookeeper 集群部署 2.kafka集群部署 3.Filebeat+Kafka+ELK 三、问题          1.解压文件异常 2.kafka集群建立失败 3.启动 filebeat报错 4.VIM报错 5. kibana无法匹配 四、总结

    2024年02月14日
    浏览(62)
  • docker容器单机部署zookeeper+kafka集群

    KAFKA_ZOOKEEPER_CONNECT: zookeeper:2181 其中zookeeper会转化成zookeeper的ip kafka1: 10.21.214.66 其中10.21.214.66 填写宿主机ip

    2024年02月19日
    浏览(43)
  • zookeeper集群和kafka的相关概念就部署

    目录 一、Zookeeper概述 1、Zookeeper 定义  2、Zookeeper 工作机制 3、Zookeeper 特点  4、Zookeeper 数据结构  5、Zookeeper 应用场景  (1)统一命名服务  (2)统一配置管理  (3)统一集群管理  (4)服务器动态上下线  (5)软负载均衡  6、Zookeeper选举机制 (1)第一次启动选举机制

    2024年02月14日
    浏览(32)
  • zookeeper+kafka分布式消息队列集群的部署

    目录 一、zookeeper 1.Zookeeper 定义 2.Zookeeper 工作机制 3.Zookeeper 特点 4.Zookeeper 数据结构 5.Zookeeper 应用场景 (1)统一命名服务 (2)统一配置管理 (3)统一集群管理 (4)服务器动态上下线 6.Zookeeper 选举机制 (1)第一次启动选举机制 (2)非第一次启动选举机制 7.部署zookeepe

    2024年02月14日
    浏览(52)
  • Helm方式部署 zookeeper+kafka 集群 ——2023.05

    服务 版本 centos 7.9 kubernetes v1.20.15 helm v3.10.1 zookeeper 3.8.1 kafka 3.4.0 安装方式有两种,在线安装和离线安装,在线安装方便快捷,但是无法修改参数。由于需要修改配置,故本文采用离线安装方式。 2.1 在线安装zookeeper+kafka集群 1. 部署zookeeper集群 提示: 由于这个ApacheZookeeper集群

    2024年02月09日
    浏览(51)
  • 【Kafka】Zookeeper和Kafka集群的安装和配置

    一、集群环境说明 1. 虚拟机:192.168.223.101/103/105 2. 系统版本:CentOS 7.9 3. JDK版本:11.0.18.0.1 4. Zookeeper版本:3.7.1 5. Kafka版本:2.13-2.8.2 备注:无论是ZK,还是Kafka的安装,都需要用到JDK,上面给出的ZK和Kafka版本,都已经支持JDK11(JDK 11 Supported)。这三者之间的兼容关系,感兴趣

    2024年02月12日
    浏览(56)
  • 安装Zookeeper和Kafka集群

    本文介绍如何安装Zookeeper和Kafka集群。为了方便,介绍的是在一台服务器上的安装,实际应该安装在多台服务器上,但步骤是一样的。 从官网上下载安装包: 解压: 创建目录 zk1 ,然后添加如下配置: zk1/myid : zk1/zk.config : 对于 zk2 和 zk3 也重复同样的步骤,并修改相应的配置

    2023年04月17日
    浏览(31)
  • 【简单认识zookeeper+kafka分布式消息队列集群的部署】

    Zookeeper是一个开源的分布式的,为分布式框架提供协调服务的Apache项目。 Zookeeper从设计模式角度来理解:是一个基于观察者模式设计的分布式服务管理框架,它负责存储和管理大家都关心的数据,然后接受观察者的注册,一旦这些数据的状态发生变化,Zookeeper就将负责通知已

    2024年02月13日
    浏览(42)
  • 【ELK 使用指南 3】Zookeeper、Kafka集群与Filebeat+Kafka+ELK架构(附部署实例)

    分布式应用管理框架 。 Zookeeper是个开源的,分布式的,为分布式框架提供协调服务的Apach项目。 主要用于解决分布式应用集群中 应用系统的一致性问题 。 作为 文件系统 ,用于注册各种分布式应用, 储存管理分布式应用的元信息 ; 作为 通知机制 ,如果节点或者服务本身的

    2024年02月08日
    浏览(59)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包