【Kafka】Kafka3.1.1集群搭建指南KRaft版本

这篇具有很好参考价值的文章主要介绍了【Kafka】Kafka3.1.1集群搭建指南KRaft版本。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

目录

一、背景和描述

二、资源情况

三、技术选型

四、部署Kraft版本集群

五、配置SSL模式

六、Springboot使用SSL集成

参考资料

一、背景和描述

考虑资源安全性,需要搭建不依赖Zookeeper的kafka集群环境,并且配置SSL访问控制

Apache Kafka Raft 是一种共识协议,它的引入是为了消除 Kafka 对 ZooKeeper 的元数据管理的依赖,被社区称之为 Kafka Raft metadata mode,简称 KRaft 模式。

目前,Kafka在使用的过程当中,会出现一些问题。由于重度依赖Zookeeper集群,当Zookeeper集群性能发生抖动时,Kafka的性能也会收到很大的影响。因此,在Kafka发展的过程当中,为了解决这个问题,提供KRaft模式,来取消Kafka对Zookeeper的依赖。参考文章:百度安全验证

二、资源情况

服务器IP CPU 内存 磁盘容量
127.0.0.1 8核 16G 100G
127.0.0.1 8核 16G 100G
127.0.0.1 8核 16G 100G

以下是查看Linux机器CPU核心数、内存、磁盘容量等信息的常用命令:

  1. 查看CPU核心数:

    cat /proc/cpuinfo | grep "cpu cores" | uniq
    cat /proc/cpuinfo | grep "physical id" | sort | uniq | wc -l
    
  2. 查看内存大小以及可用空间:

    free -h
    
  3. 查看磁盘容量以及可用空间:

    df -h
    
  4. 查看某个目录的占用空间:

    du -sh /path/to/directory
    

以上命令可以通过SSH连接到Linux服务器的终端或使用工具如SecureCRT、PuTTY等来执行。

在Linux系统中,cpu coresphysical id都是用来表示CPU核心数量的信息。但是,它们有不同的含义和用途。

cpu cores表示每个物理CPU上的核心数量。例如,如果一台服务器有两个物理CPU,每个CPU包含4个核心,则cpu cores的值为8(即 2 * 4 = 8) 。此信息对于诊断单个物理CPU的性能问题非常有用,可以帮助您确定每个物理CPU上的核心数。

physical id则表示物理处理器的ID号。在多CPU架构中,每个CPU都有一个唯一的物理ID。如果一台服务器有多个物理CPU,则每个物理CPU将会被分配一个不同的physical id。这些信息对于了解如何将进程/线程分配到物理CPU上非常有用。

总之,cpu cores通常用于监视和调整单个物理CPU的性能,而physical id则用于检查多个物理CPU之间的区别以及了解如何在多CPU环境下分配资源。

三、技术选型

查阅Kafka官方说明文档:Apache Kafka,3.3.x版本Kafka可用于生产,所以Kafka版本选择3.3.1(3.3.0不推荐)

Apache 软件基金会发布了包含许多新特性和改进的 Kafka 3.3.1。这是第一个标志着可以在生产环境中使用 KRaft(Kafka Raft)共识协议的版本。在几年的开发过程中,它先是在 Kafka 2.8 早期访问版本中发布,然后又在 Kafka 3.0 预览版本中发布。

KRaft 是一种共识协议,可以直接在 Kafka 中管理元数据。元数据的管理被整合到了 Kafka 当中,而不需要使用像 ZooKeeper 这样的第三方工具,这大大简化了 Kafka 的架构。这种新的 KRaft 模式提高了分区的可伸缩性和弹性,同时简化了 Kafka 的部署,现在可以不依赖 ZooKeeper 单独部署 Kafka 了。

参考资料:Kafka 3.3使用KRaft共识协议替代ZooKeeper_控制器_仲裁_版本

下载地址:Kafka官方下载地址

四、部署Kraft版本集群

kafka笔记3--快速部署KRaft版本的kafka3.1.1_kafka 3.1 kraft 安装_昕光xg的博客-CSDN博客

五、配置SSL模式

如何配置kafka的SSL链接访问 - 简书

在 Kafka 3.3.1 中启用 Kraft 模式下的 SSL 加密传输,您可以按照以下步骤进行操作:

  1. 生成 SSL 证书和私钥 这可以使用 OpenSSL 工具来完成。可以根据需要自定义证书和密钥文件名称以及密码等相关参数,例如:

    openssl req -new -newkey rsa:4096 -days 365 -nodes -x509 -keyout server.key -out server.crt
  2. 配置 Kafka Broker 在 broker.properties 文件中,将以下参数设置为所需值:

    listeners=SSL://kafka-ssl.example.com:9093 # 定义 SSL 监听器 advertised.listeners=SSL://kafka-ssl.example.com:9093 # 公告 SSL 监听器 ssl.keystore.location=/path/to/kafka.server.keystore.jks ssl.keystore.password=<keystore-password> ssl.key.password=<key-password>

    将 SSL 监听器和广告监听器设置为 SSL://<hostname>:9093。请相应地更改 <keystore-password><key-password> 以及文件路径等参数为实际的内容。

  3. 启用 SSL 客户端身份验证(可选) 如果需要对客户端进行身份验证,也可以在 broker.properties 中设置以下参数:

    ssl.client.auth=required ssl.truststore.location=/path/to/truststore.jks ssl.truststore.password=<truststore-password>

    这些参数指定了 SSL 客户端身份验证策略,以及必须使用的可信证书颁发机构(CA)证书的位置和密码等信息。指定 ssl.client.auth=required 可以强制 Kafka Broker 对客户端进行身份验证,并防止未经授权的访问。

在完成上述步骤后,重新启动 Kafka Broker 。现在,您可以使用 SSL 连接到 Kafka 集群。但是,在实际生产环境中,请首先测试配置并确保其可以正常工作,然后再将其应用于生产环境。

要在 Kafka 客户端上创建一个 client-ssl.properties 文件进行测试 SSL 连接,您可以按照以下步骤操作:

  1. 在客户端机器上安装 JRE (Java 运行环境) 和 OpenSSL 工具 (如果没有安装的话)。

  2. 生成客户端证书和私钥 这个证书应该是使用与 Kafka Broker 使用的相同的 CA 签署的。也可以为您的测试客户端生成自签名证书以进行测试。可以使用 OpenSSL 工具来生成自签名证书并为其设置密码,例如:

    openssl req -new -newkey rsa:4096 -nodes -keyout client.key -out client.csr openssl x509 -req -days 365 -in client.csr -CA rootCA.crt -CAkey rootCA.key -set_serial 01 -out client.crt
  3. 创建 client-ssl.properties 文件 在与 Kafka 客户端可执行文件相同的目录中,根据需要创建一个新的 client-ssl.properties 文件,并将以下参数设置为所需值:

    security.protocol=SSL ssl.truststore.location=<path-to-client-truststore.jks> ssl.truststore.password=<truststore-password> ssl.keystore.location=<path-to-client-keystore.jks> ssl.keystore.password=<keystore-password> ssl.key.password=<key-password>

    <path-to-client-truststore.jks><path-to-client-keystore.jks> 替换为实际的证书和密钥存储路径,以及相应的密码。

  4. 向 Kafka 发送测试消息 在与 Kafka 客户端可执行文件相同的目录中,使用以下命令向 Kafka Broker 发送测试消息:

    bin/kafka-console-producer.sh --broker-list <kafka-broker>:9093 --topic test --producer.config client-ssl.properties

    <kafka-broker> 替换为您的 Kafka Broker 主机名或 IP 地址。

  5. 检查发送是否成功 您可以在另一个终端中使用以下命令从 Kafka Broker 消费消息:

    bin/kafka-console-consumer.sh --bootstrap-server <kafka-broker>:9093 --topic test --from-beginning --consumer.config client-ssl.properties

    如果一切正常,您将看到来自生产者的消息已成功传输并已由消费者接收到。

通过按照上述步骤创建 client-ssl.properties 文件并进行测试 SSL 连接,您可以确保 Kafka 集群上的 SSL 连接设置正确且正常工作。

为 IP 生成 CA 证书的流程如下:

  1. 生成 CA 根证书。

    openssl req -x509 -days 3650 -newkey rsa:2048 -nodes -keyout ca.key -out ca.crt

    这个命令将生成新的 CA 根证书,其中 -x509 表示生成自签名证书,-days 3650 表示证书的有效期为 10 年。在这个过程中,您需要输入一些信息,如国家代码、城市名、组织名称等。

  2. 创建一个用于 IP 的证书签名请求(CSR)文件。

    openssl req -new -nodes -newkey rsa:2048 -keyout server.key -out server.csr

    同样要求输入一些信息,例如国家代码、城市名、公司名等。其中,-new 表示创建一个新的证书请求,-keyout 指定私钥输出的文件路径,-out 指定新证书请求输出的文件路径。

  3. 使用 CA 根证书签署 CSR 文件并生成证书。

    openssl x509 -req -CA ca.crt -CAkey ca.key -in server.csr -out server.crt -days 3650 -CAcreateserial -extfile server.ext

    这个命令将使用 CA 根证书签署刚才创建的证书请求,并生成新的服务器证书。其中,-CA-CAkey 分别指定 CA 根证书和私钥的位置,-in 指定服务器证书签名请求的文件路径,-out 指定生成的证书的文件路径,-days 设置证书的有效期,-CAcreateserial 表示自动创建一个序列号,并将其保存到 .srl 文件中。-extfile server.ext 是一个配置文件,在其中可以指定 SAN 扩展等附加选项。

  4. 使用新的证书和密钥保护 IP

    将生成的 server.crtserver.key 证书和私钥文件分别应用于您需要保护的 IP、域名或其他服务上,在 Internet 上建立安全连接。

请注意,在使用 openssl 命令生成证书时,要特别注意您输入的各种数据信息因素,因为这些信息会在后续内容以及过程中得到反复使用。

六、Springboot使用SSL集成

SpringBoot整合并简单使用SSL认证的Kafka_springboot ssl kafka_justry_deng的博客-CSDN博客

在 Spring Kafka 中,可以通过配置 KafkaTemplate 和 ProducerFactory 来实现 SSL 验证。下面是一个简单的配置示例:

import java.util.HashMap;
import java.util.Map;

import org.apache.kafka.clients.CommonClientConfigs;
import org.apache.kafka.clients.producer.ProducerConfig;
import org.apache.kafka.common.config.SslConfigs;
import org.apache.kafka.common.serialization.StringSerializer;
import org.springframework.beans.factory.annotation.Value;
import org.springframework.context.annotation.Bean;
import org.springframework.context.annotation.Configuration;
import org.springframework.kafka.core.DefaultKafkaProducerFactory;
import org.springframework.kafka.core.KafkaTemplate;
import org.springframework.kafka.core.ProducerFactory;

@Configuration
public class KafkaProducerConfiguration {

    @Value("${kafka.bootstrap.servers}")
    private String bootstrapServers;

    @Value("${kafka.ssl.truststore.location}")
    private String truststoreLocation;

    @Value("${kafka.ssl.truststore.password}")
    private String truststorePassword;

    @Bean
    public ProducerFactory<String, String> producerFactory() {
        Map<String, Object> props = new HashMap<>();
        props.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG, bootstrapServers);
        props.put(SslConfigs.SSL_TRUSTSTORE_LOCATION_CONFIG, truststoreLocation);
        props.put(SslConfigs.SSL_TRUSTSTORE_PASSWORD_CONFIG, truststorePassword);
        props.put(CommonClientConfigs.SECURITY_PROTOCOL_CONFIG, "SSL");
        props.put(ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG, StringSerializer.class);
        props.put(ProducerConfig.VALUE_SERIALIZER_CLASS_CONFIG, StringSerializer.class);
        return new DefaultKafkaProducerFactory<>(props);
    }

    @Bean
    public KafkaTemplate<String, String> kafkaTemplate() {
        return new KafkaTemplate<>(producerFactory());
    }
}

在上面的代码中,定义了以下参数:

  • bootstrap.servers:指定 Kafka Broker 的地址和端口号。
  • ssl.truststore.location:指定 SSL 验证所需的证书文件路径。
  • ssl.truststore.password:指定证书文件的密码。
  • security.protocol:指定安全协议类型为 SSL。
  • key.serializer:指定键值序列化器类。
  • value.serializer:指定值序列化器类。

这个示例中,使用 @Value 注解读取了配置文件中的属性值,以便在代码中动态使用。因此,在使用之前,需要在配置文件中添加如下属性:

kafka.bootstrap.servers=kafka.example.com:9093
kafka.ssl.truststore.location=/path/to/truststore.jks
kafka.ssl.truststore.password=password
需要注意的是,在 SSL 模式下,Kafka 的安全验证非常关键。为了保护数据安全,在实际场景中可能还需要采用其他的安全措施,例如身份验证、消息加密等。具体措施可以根据企业的实际情况进行确定。

参考资料

Kafka实战:集群SSL加密认证和配置(最新版kafka-2.7.0)

78.kafka高级-kraft集群搭建_哔哩哔哩_bilibili

[教程]【海牛大数据】Kafka 教程(Kafka3.3.2 原理、安装、应用场景、源码解析、高级优化、实战案例应有尽有)[云平台课程] | 海牛部落 高品质的 大数据技术社区

Apache Kafka 官方文档

kafka笔记3--快速部署KRaft版本的kafka3.1.1_kafka 3.1 kraft 安装_昕光xg的博客-CSDN博客

再见!Kafka决定弃用Zookeeper...

Apache Kafka 下载地址

kafka3.4.0集群搭建(无zookeeper)_最新版kafka不需要zookeeper_小趴菜醉了的博客-CSDN博客

kafka3.1集群搭建(kraft模式)_controller.quorum.voters_阿豪咿呀的博客-CSDN博客

Kafka配置SSL认证_ssl.ca.location kafka_justry_deng的博客-CSDN博客文章来源地址https://www.toymoban.com/news/detail-439020.html

到了这里,关于【Kafka】Kafka3.1.1集群搭建指南KRaft版本的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • Kafka3.0.0版本——集群部署(linux环境-centos7)

    三台服务器 服务器名称 服务器ip centos7虚拟机1 192.168.136.27 centos7虚拟机2 192.168.136.28 centos7虚拟机3 192.168.136.29 Zookeeper集群安装参考此博文链接:https://wwwxz.blog.csdn.net/article/details/129280956?spm=1001.2014.3001.5502 3.1、官网下载地址 官网下载地址:http://kafka.apache.org/downloads.html 3.2、下载

    2024年02月04日
    浏览(45)
  • kafka3.4.0单机版安装配置教程(kraft模式舍弃ZK)

    下载地址:https://archive.apache.org/dist/kafka/3.4.0/

    2024年04月17日
    浏览(52)
  • Kafka集群部署 (KRaft模式集群)

    KRaft 模式是 Kafka 在 3.0 版本中引入的新模式。KRaft 模式使用了 Raft 共识算法来管理 Kafka 集群元数据。Raft 算法是一种分布式共识算法,具有高可用性、可扩展性和安全性等优势。 在 KRaft 模式下,Kafka 集群中的每个 Broker 都具有和 Zookeeper 类似的角色。每个 Broker 都参与管理

    2024年02月03日
    浏览(37)
  • 手动部署Kraft模式Kafka集群

    IP地址 Hostname Release Kafka-Version 172.29.145.157 iamdemo1 Centos7.9 kafka_2.12-3.5.1 172.29.145.182 iamdemo2 Centos7.9 kafka_2.12-3.5.1 172.29.145.183 iamdemo3 Centos7.9 kafka_2.12-3.5.1 下载安装包 kafka安装包官网下载 下载完成后上传到服务器/opt目录下解压 生成集群随机uuid 配置kafka集群的kraft模式参数 使用集群

    2024年02月05日
    浏览(42)
  • kafka伪集群部署,使用KRAFT模式

    2024年02月07日
    浏览(45)
  • 【kafka+Kraft模式集群+SASL安全认证】

    准备3个kafka,我这里用的kafka版本为:kafka_2.13-3.6.0,下载后解压: 更改解压后的文件名称: cp kafka_2.13-3.6.0 kafka_2.13-3.6.0-1/2/3 分别得到kafka_2.13-3.6.0-1、kafka_2.13-3.6.0-2、kafka_2.13-3.6.0-3 copy一份config/kraft/server.properties配置文件,修改名称 server-sasl.properties 进入各个config/kraft/server

    2024年02月03日
    浏览(46)
  • kafka3.6.0集群部署

    环境准备 机器环境 系统 主机名 IP地址 centos7.9 kafka01 192.168.200.51 centos7.9 kafka02 192.168.200.52 centos7.9 kafka03 192.168.200.53 所需软件 hosts设置 java环境设置 zookeeper安装部署 创建软件安装目录 解压安装 修改配置 分发软件 kafka02与kafka03软链接 kafka02与kafka03修改myid 防火墙放行端口 设置

    2024年02月04日
    浏览(36)
  • nacos2.1.1版本,作为注册中心,配置中心如何使用,nacos服务端启动,微服务搭建,nacos集群化部署

    关于nacos 相信大多数人一样,在接触微服务的时候知道有Netflix系列和alibaba系列 但是Netflix这一套如今由于部分组件不在开源,又有alibaba这一套的出现,市面上,alibaba系列微服务架构已经是最火热的了,而nacos则是alibaba系列组件充当服务注册发现和配置中心的角色 说白了,就是将每个

    2024年02月03日
    浏览(49)
  • (二十六)大数据实战——kafka集群之Kraft模式安装与部署

    本节内容主要介绍kafka3.0版本以后,一种新的kafka集群搭建模式看kraft,在该模式下,kafka高可用不在依赖于zookeeper,用 controller 节点代替 zookeeper,元数据保存在 controller 中,由 controller 直接进 行 Kafka 集群管理。 ①解压kafka安装包到/opt/module/kafka-kraft目录下 - 命令: ②修改k

    2024年02月08日
    浏览(50)
  • 【kafka-ui】支持kafka with kraft的可视化集群管理工具

    本文在kafka3.3.1版本基础上进行测试 在早期使用kafka的时候一般使用Kafka Tool或者kafka eagle,前者为桌面软件,后者为浏览器软件。总体来说体验一般,但是还比较够用。 但是从kafka3.3.1开始,已经正式抛弃zookeeper使用自己的仲裁器了,但是上述两种kafka可视化工具的更新好像并

    2024年02月02日
    浏览(94)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包