(二十六)大数据实战——kafka集群之Kraft模式安装与部署

这篇具有很好参考价值的文章主要介绍了(二十六)大数据实战——kafka集群之Kraft模式安装与部署。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

前言

本节内容主要介绍kafka3.0版本以后,一种新的kafka集群搭建模式看kraft,在该模式下,kafka高可用不在依赖于zookeeper,用 controller 节点代替 zookeeper,元数据保存在 controller 中,由 controller 直接进 行 Kafka 集群管理。

正文

①解压kafka安装包到/opt/module/kafka-kraft目录下

- 命令:

mkdir -p /opt/module/kafka-kraft
tar -zxvf kafka_2.12-3.0.0.tgz -C /opt/module/kafka-kraft

(二十六)大数据实战——kafka集群之Kraft模式安装与部署,大数据,# MQ,# kafka,大数据,kafka,分布式

②修改kafka目录下/opt/module/kafka-kraft/kafka_2.12-3.0.0/config/kraft的配置文件server.properties

 - server.properties配置文件目录(二十六)大数据实战——kafka集群之Kraft模式安装与部署,大数据,# MQ,# kafka,大数据,kafka,分布式

- 服务器基础配置

############################# Server Basics #############################

# The role of this server. Setting this puts us in KRaft mode
process.roles=broker,controller

# The node id associated with this instance's roles
node.id=1

# The connect string for the controller quorum
controller.quorum.voters=1@hadoop101:9093,2@hadoop102:9093,3@hadoop103:9093

(二十六)大数据实战——kafka集群之Kraft模式安装与部署,大数据,# MQ,# kafka,大数据,kafka,分布式

- 对外暴露地址的配置

advertised.listeners=PLAINTEXT://hadoop101:9092

(二十六)大数据实战——kafka集群之Kraft模式安装与部署,大数据,# MQ,# kafka,大数据,kafka,分布式

- 配置数据存储目录

log.dirs=/opt/module/kafka-kraft/kafka_2.12-3.0.0/data

(二十六)大数据实战——kafka集群之Kraft模式安装与部署,大数据,# MQ,# kafka,大数据,kafka,分布式

③同步kafka的kraft模式安装包到hadoop102和hadoop103,并修改配置

 - 同步kafka安装包(二十六)大数据实战——kafka集群之Kraft模式安装与部署,大数据,# MQ,# kafka,大数据,kafka,分布式

- 修改hadoop102的server.properties配置文件

(二十六)大数据实战——kafka集群之Kraft模式安装与部署,大数据,# MQ,# kafka,大数据,kafka,分布式

- 修改hadoop103的server.properties配置文件

(二十六)大数据实战——kafka集群之Kraft模式安装与部署,大数据,# MQ,# kafka,大数据,kafka,分布式

④初始化kafka-kraft集群数据目录

-  生成存储目录唯一 ID

bin/kafka-storage.sh random-uuid

(二十六)大数据实战——kafka集群之Kraft模式安装与部署,大数据,# MQ,# kafka,大数据,kafka,分布式

- 用该ID格式化kafka集群的存储目录

bin/kafka-storage.sh format -t 4l-ahopRSLSJlH-qxczhYg -c /opt/module/kafka-kraft/kafka_2.12-3.0.0/config/kraft/server.properties

(二十六)大数据实战——kafka集群之Kraft模式安装与部署,大数据,# MQ,# kafka,大数据,kafka,分布式

(二十六)大数据实战——kafka集群之Kraft模式安装与部署,大数据,# MQ,# kafka,大数据,kafka,分布式

(二十六)大数据实战——kafka集群之Kraft模式安装与部署,大数据,# MQ,# kafka,大数据,kafka,分布式

⑤创建kafka集群启停脚本

 - 在kafka的bin目录创建集群启停脚本my-kafka-kraft.sh

#! /bin/bash
case $1 in
"start"){
 for i in hadoop101 hadoop102 hadoop103
 do
 echo " --------启动 $i Kafka2-------"
 ssh $i "/opt/module/kafka-kraft/kafka_2.12-3.0.0/bin/kafka-server-start.sh -daemon /opt/module/kafka-kraft/kafka_2.12-3.0.0/config/kraft/server.properties"
 done
};;
"status"){
 for i in hadoop101 hadoop102 hadoop103
 do
 echo =============== $i ===============
 ssh $i jps
 done
};;
"stop"){
 for i in hadoop101 hadoop102 hadoop103
 do
 echo " --------停止 $i Kafka2-------"
 ssh $i "/opt/module/kafka-kraft/kafka_2.12-3.0.0/bin/kafka-server-stop.sh "
 done
};;
esac

- 在hadoop101服务器创建my-kafka-kraft.sh脚本

(二十六)大数据实战——kafka集群之Kraft模式安装与部署,大数据,# MQ,# kafka,大数据,kafka,分布式

 ⑥配置kafka-kraft环境变量

- 修改环境变量配置

(二十六)大数据实战——kafka集群之Kraft模式安装与部署,大数据,# MQ,# kafka,大数据,kafka,分布式

- 同步环境变量配置

(二十六)大数据实战——kafka集群之Kraft模式安装与部署,大数据,# MQ,# kafka,大数据,kafka,分布式

(二十六)大数据实战——kafka集群之Kraft模式安装与部署,大数据,# MQ,# kafka,大数据,kafka,分布式

(二十六)大数据实战——kafka集群之Kraft模式安装与部署,大数据,# MQ,# kafka,大数据,kafka,分布式

⑦启动集群、停止集群、查看集群状态

 (二十六)大数据实战——kafka集群之Kraft模式安装与部署,大数据,# MQ,# kafka,大数据,kafka,分布式

结语

至此,关于kafka集群之Kraft模式安装与部署到这里就结束了,我们下期见。。。。。。文章来源地址https://www.toymoban.com/news/detail-712599.html

到了这里,关于(二十六)大数据实战——kafka集群之Kraft模式安装与部署的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • kafka伪集群部署,使用KRAFT模式

    2024年02月07日
    浏览(34)
  • 【kafka+Kraft模式集群+SASL安全认证】

    准备3个kafka,我这里用的kafka版本为:kafka_2.13-3.6.0,下载后解压: 更改解压后的文件名称: cp kafka_2.13-3.6.0 kafka_2.13-3.6.0-1/2/3 分别得到kafka_2.13-3.6.0-1、kafka_2.13-3.6.0-2、kafka_2.13-3.6.0-3 copy一份config/kraft/server.properties配置文件,修改名称 server-sasl.properties 进入各个config/kraft/server

    2024年02月03日
    浏览(32)
  • 彻底搞懂Docker容器与Kraft模式kafka集群关于消息大小相关参数设置

    部署背景: 在DockerHub拉取的bitnami/kafka:3.4.1 镜像,如果要部署在Docker-Swarm集群或者单Docker部署,对于消息大小设置需要添加参数 KAFKA_CFG_MESSAGE_MAX_BYTES,如果设置为其他不符合规范的参数格式,会导致容器一直启动不了。 PS:KAFKA_CFG_MESSAGE_MAX_BYTES 是针对Broker级别消息大小限制

    2024年02月08日
    浏览(31)
  • (二十八)大数据实战——Flume数据采集之kafka数据生产与消费集成案例

    本节内容我们主要介绍一下flume数据采集和kafka消息中间键的整合。通过flume监听nc端口的数据,将数据发送到kafka消息的first主题中,然后在通过flume消费kafka中的主题消息,将消费到的消息打印到控制台上。集成使用flume作为kafka的生产者和消费者。关于nc工具、flume以及kafka的

    2024年02月09日
    浏览(37)
  • (十六)大数据实战——安装使用mysql版的hive服务

    hive默认使用的是内嵌据库 derby ,Derby 是一个嵌入式数据库,可以轻松地以库的形式集成到应用程序中。它不需要独立的服务器进程,所有的数据存储在应用程序所在的文件系统中。为了支持hive服务更方便的使用,我们使用mysql数据库的方式,使得服务部署更加灵活。数据库

    2024年02月13日
    浏览(29)
  • kafka 安装 以及 Kraft 模式、安全认证配置

    常见安装:zookeeper + kafka zookeeper 单节点安装 : apach官网下载对应包:apache-zookeeper-3.7.1-bin.tar.gz 修改对应配置文件 /conf/zoo_sample.cfg ,配置端口以及数据目录 sh zkServer.sh start 启动 、 sh zkServer.sh stop 停止、 sh zkServer.sh status 状态 sh zkCli.sh -server 客户端 zookeeper 集群安装: 在每个

    2024年02月10日
    浏览(44)
  • (三十六)大数据实战——ClickHouse数据库的部署安装实现

    ClickHouse是俄罗斯的Yandex于2016年开源的列式存储数据库 DBMS ),使用C语言编写,主要用于在线分析处理查询( OLAP ),能够使用SQL查询实时生成分析数据报告。 列式存储 :数据按列进行存储,这使得 ClickHouse 能够高效地处理聚合查询和分析操作; 高性能 :ClickHouse 被设计用

    2024年02月19日
    浏览(32)
  • kafka3.4.0单机版安装配置教程(kraft模式舍弃ZK)

    下载地址:https://archive.apache.org/dist/kafka/3.4.0/

    2024年04月17日
    浏览(40)
  • kafka各种环境安装(window,linux,docker,k8s),包含KRaft模式

    1、 本次实验,采用kafka版本为 3.4.0 2、我们首先需要了解一下,一个 Kafka 集群是由下列几种类型的节点构成的,它们充当着不同的作用: Broker 节点 :即 代理节点 ,是 Kafka 中的工作节点,充当消息队列的角色, 负责储存和处理消息 ,每个 Broker 都是一个独立的 Kafka 服务器

    2024年02月10日
    浏览(34)
  • (二十四)大数据实战——Flume数据流监控之Ganglia的安装与部署

    本节内容我们主要介绍一下Flume数据流的监控工具Ganglia。Ganglia是一个开源的分布式系统性能监控工具。它被设计用于监视大规模的计算机群集(包括集群、网格和云环境),以便收集和展示系统和应用程序的性能数据。Ganglia 可以轻松地扩展到数千台计算机节点,并支持跨多

    2024年02月08日
    浏览(35)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包