Kafka3.3.1最新版安装教程(无需zookeeper)

这篇具有很好参考价值的文章主要介绍了Kafka3.3.1最新版安装教程(无需zookeeper)。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

下载地址

  • kafka下载地址

KRaft配置文件,可直接使用

路径:kafka/3.3.1_1/libexec/config/kraft/server.properties

  ############################# Server Basics #############################

# The role of this server. Setting this puts us in KRaft mode
process.roles=broker,controller

# The node id associated with this instance's roles
node.id=1

# The connect string for the controller quorum
controller.quorum.voters=1@localhost:9093

############################# Socket Server Settings #############################

# The address the socket server listens on.
# Combined nodes (i.e. those with `process.roles=broker,controller`) must list the controller listener here at a minimum.
# If the broker listener is not defined, the default listener will use a host name that is equal to the value of java.net.InetAddress.getCanonicalHostName(),
# with PLAINTEXT listener name, and port 9092.
#   FORMAT:
#     listeners = listener_name://host_name:port
#   EXAMPLE:
#     listeners = PLAINTEXT://your.host.name:9092
listeners=PLAINTEXT://localhost:9092,CONTROLLER://localhost:9093

# Name of listener used for communication between brokers.
inter.broker.listener.name=PLAINTEXT

# Listener name, hostname and port the broker will advertise to clients.
# If not set, it uses the value for "listeners".
advertised.listeners=PLAINTEXT://localhost:9092

# A comma-separated list of the names of the listeners used by the controller.
# If no explicit mapping set in `listener.security.protocol.map`, default will be using PLAINTEXT protocol
# This is required if running in KRaft mode.
controller.listener.names=CONTROLLER

# Maps listener names to security protocols, the default is for them to be the same. See the config documentation for more details
listener.security.protocol.map=CONTROLLER:PLAINTEXT,PLAINTEXT:PLAINTEXT,SSL:SSL,SASL_PLAINTEXT:SASL_PLAINTEXT,SASL_SSL:SASL_SSL

# The number of threads that the server uses for receiving requests from the network and sending responses to the network
num.network.threads=3

# The number of threads that the server uses for processing requests, which may include disk I/O
num.io.threads=8

# The send buffer (SO_SNDBUF) used by the socket server
socket.send.buffer.bytes=102400

# The receive buffer (SO_RCVBUF) used by the socket server
socket.receive.buffer.bytes=102400

# The maximum size of a request that the socket server will accept (protection against OOM)
socket.request.max.bytes=104857600


############################# Log Basics #############################

# A comma separated list of directories under which to store log files
log.dirs=/opt/homebrew/var/lib/kraft-combined-logs

# The default number of log partitions per topic. More partitions allow greater
# parallelism for consumption, but this will also result in more files across
# the brokers.
num.partitions=1

# The number of threads per data directory to be used for log recovery at startup and flushing at shutdown.
# This value is recommended to be increased for installations with data dirs located in RAID array.
num.recovery.threads.per.data.dir=1

############################# Internal Topic Settings  #############################
# The replication factor for the group metadata internal topics "__consumer_offsets" and "__transaction_state"
# For anything other than development testing, a value greater than 1 is recommended to ensure availability such as 3.
offsets.topic.replication.factor=1
transaction.state.log.replication.factor=1
transaction.state.log.min.isr=1

############################# Log Flush Policy #############################

# Messages are immediately written to the filesystem but by default we only fsync() to sync
# the OS cache lazily. The following configurations control the flush of data to disk.
# There are a few important trade-offs here:
#    1. Durability: Unflushed data may be lost if you are not using replication.
#    2. Latency: Very large flush intervals may lead to latency spikes when the flush does occur as there will be a lot of data to flush.
#    3. Throughput: The flush is generally the most expensive operation, and a small flush interval may lead to excessive seeks.
# The settings below allow one to configure the flush policy to flush data after a period of time or
# every N messages (or both). This can be done globally and overridden on a per-topic basis.

# The number of messages to accept before forcing a flush of data to disk
#log.flush.interval.messages=10000

# The maximum amount of time a message can sit in a log before we force a flush
#log.flush.interval.ms=1000

############################# Log Retention Policy #############################

# The following configurations control the disposal of log segments. The policy can
# be set to delete segments after a period of time, or after a given size has accumulated.
# A segment will be deleted whenever *either* of these criteria are met. Deletion always happens
# from the end of the log.

# The minimum age of a log file to be eligible for deletion due to age
log.retention.hours=168

# A size-based retention policy for logs. Segments are pruned from the log unless the remaining
# segments drop below log.retention.bytes. Functions independently of log.retention.hours.
#log.retention.bytes=1073741824

# The maximum size of a log segment file. When this size is reached a new log segment will be created.
log.segment.bytes=1073741824

# The interval at which log segments are checked to see if they can be deleted according
# to the retention policies
log.retention.check.interval.ms=300000

kafka命令

./bin/kafka-storage.sh random-uuid 会得到一个uuid

将uuid写入配置文件中 ./bin/kafka-storage.sh format -t uuid -c ./config/kraft/server.properties

启动命令 ./bin/kafka-server-start.sh ./config/kraft/server.properties

如果需要后台启动./bin/kafka-server-start.sh ./config/kraft/server.properties &

创建topic的命令bin/kafka-topics.sh --create --topic myfirsttopic --partitions 1 --replication-factor 1 --bootstrap-server localhost:9092

创建生产者的命令bin/kafka-console-producer.sh --broker-list localhost:9092 --topic myfirsttopic

创建消费者的命令bin/kafka-console-consumer.sh --bootstrap-server localhost:9092 --topic myfirsttopic --from-beginning

效果图:

kafka无zookeeper安装,java,kafka文章来源地址https://www.toymoban.com/news/detail-519480.html

到了这里,关于Kafka3.3.1最新版安装教程(无需zookeeper)的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 2023年最新版kali linux安装教程

    一、前期准备 前排提醒,文末有 绿色版 安装包免费领取! 二、VMware虚拟机配置 1、打开vmware,点击创建新的虚拟机 2、选择自定义(高级)选项,点击下一步 3、继续下一步 4、选择【稍后安装操作系统】,然后点击下一步 5、客户机操作系统选择【Linux】,版本选择【Debian】,

    2023年04月16日
    浏览(50)
  • Linux安装最新版Docker完整教程(建议收藏)

    1.1 查看服务器系统版本以及内核版本 1.2 查看服务器内核版本 这里我们使用的是CentOS 7.4 系统,内核版本为3.10 1.3 安装依赖包 1.4 设置阿里云镜像源 2.1 Docker版本说明 2.2 docker-ce安装 2.3 启动docker并设置开机自启 3.1 仓库 (repository) 3.2 镜像(Image) 3.3 容器(Container) 5.1 搜索镜像 5.2

    2023年04月16日
    浏览(40)
  • Win11 系统Java17的安装教程:最新版JDK 17.07下载、安装、卸载详解(最新版安装包点击文末名片免费获取)

    博主猫头虎的技术世界 🌟 欢迎来到猫头虎的博客 — 探索技术的无限可能! 专栏链接 : 🔗 精选专栏 : 《面试题大全》 — 面试准备的宝典! 《IDEA开发秘籍》 — 提升你的IDEA技能! 《100天精通Golang》 — Go语言学习之旅! 领域矩阵 : 🌐 猫头虎技术领域矩阵 : 深入探索

    2024年02月02日
    浏览(87)
  • Qt 最新版本安装教程及国内镜像加速方法

    标题:Qt 最新版本安装教程及国内镜像加速方法 导语:本文将为您介绍如何使用国内镜像加速安装 Qt 最新版本。Qt 是一款跨平台的 C++ 应用程序开发框架,具有强大的功能和丰富的工具集。通过以下步骤,您可以快速安装 Qt,并利用国内镜像加速下载过程,提高安装效率。

    2024年02月16日
    浏览(31)
  • Git2023最新版下载与安装教程(Windows版)

    打开Git官网下载地址: https://git-scm.com/downloads 点击Download for Windows 选择git版本进行下载 双击安装包 点击Next 选择Git的安装路径,点击Next 选择组件,默认的就好,点击Next 后面的步骤一直使用默认配置选项,无脑Next,直到安装进度条出现 安装完成之后,点击Finshed 启动git测试

    2024年02月12日
    浏览(43)
  • (2023 最新版)IntelliJ IDEA 下载安装及配置教程

    IntelliJ IDEA 简称 IDEA,由 JetBrains 公司开发,是 Java 编程语言开发的集成环境,具有美观,高效等众多特点。在智能代码助手、代码自动提示、重构、J2EE 支持、各类版本工具(Git、SVN 等)、JUnit、CVS 整合、代码分析、创新的 GUI 设计等方面都有很好的应用。 IntelliJ IDEA 提供了

    2024年02月07日
    浏览(58)
  • AWVS-Linux最新版保姆级 安装教程

    免责声明: 由于传播、利用本文章所提供的信息而造成的任何直接或者间接的后果及损失,均由使用者本人负责,文章及作者不为此承担任何责任,一旦造成后果请自行承担!如有侵权烦请告知,我们会立即删除并致歉。谢谢! Acunetix AWVS Version: 23.11.231123131 Version: 23.11.2311

    2024年01月21日
    浏览(46)
  • mathtype7.0最新版安装下载及使用教程

    MathType是一款专业的数学公式编辑器,理科生专用的必备工具,可应用于教育教学、科研机构、工程学、论文写作、期刊排版、编辑理科试卷等领域。2014年11月,Design Science将MathType升级到MathType 6.9版本。在苏州苏杰思网络有限公司与Design Science公司的共同努力下,2015年3月,

    2024年02月03日
    浏览(41)
  • 最新版 Proteus 8.15 Professional 图文安装教程(附安装包)

    大家好,我是梁国庆。 Proteus 是世界上唯一将电路仿真软件、PCB设计软件和虚拟模型仿真软件三合一的设计平台。 本篇博主将手把手带领大家安装最新版 Proteus 8.15。 若图片加载超时,可点此链接跳转进行阅读。 https://mp.weixin.qq.com/s/pG8UpBzyEXkDS0r3fkTgRg Proteus 软件是英国 Lab Ce

    2024年02月03日
    浏览(38)
  • 最新版海豚调度dolphinscheduler-3.1.3安装部署详细教程

    本文基于Ambari集群搭建最新版本的海豚调度dolphinscheduler-3.1.3版本,后续会尝试整合到Ambari中。 安装dolphinscheduler需要在环境中安装如下依赖 ① JDK8 下载JDK (1.8+),安装并配置 JAVA_HOME 环境变量,并将其下的 bin 目录追加到 PATH 环境变量中 ② 数据库:PostgreSQL (8.2.15+) 或者 MySQL

    2023年04月15日
    浏览(39)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包