Kafka相关知识

这篇具有很好参考价值的文章主要介绍了Kafka相关知识。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

一、基本概念及流程

  • Broker:kafka集群中的实例
  • Topic:队列的主题,逻辑概念;
  • Partition:Topic分区,物理概念,同意parttion内消息有序;
  • Producer & Consumer:生产消息的客户端 & 消费消息的客户端,kafka认为是服务器。

将每个Topic划分为多个分区Partition,每个分区时一组有序的消息日志,分区内每条消息都会关联一个连续的数字ID即offset,生产的一条消息只会送到一个分区上。topic是逻辑概念Partition是物理概念对用户透明,生产者只需要关心消息投递到哪个topic上消费者只需要关心在哪个topic行订阅数据。为了提高每个分区的可用性,分区也存在多个副本。图中相同颜色的分区互为副本。

分区partition是对topic消息进行分片存储,好处是:

  • 负载均衡,同一个topic的分区分布在不同机器节点上,可以分担生产和消费的压力;
  • 提升吞吐,分区分布在不同机器节点提升topic整体的吞吐量。

Kafka相关知识

kafka存在两种模式:pull和pull模式

1、分区内存储的数据格式是怎样的?

分区内的数据使用消息日志的方式保存,在磁盘上只能追加日志文件,追加写入避免了随机IO操作,顺序IO没有额外寻址时间更能提升效率。追加写入导致日志文件是很大的,所以每个分区内的日志文件分割成多个日志段segment,每个segment大小相等,消息会追加到最新的segment上,Segment由index file、log file、timeindex file等组成,后缀为".index"和".log",分别表示为Segment索引文件、数据文件。文章来源地址https://www.toymoban.com/news/detail-436523.html

到了这里,关于Kafka相关知识的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • kafka基本概念及操作

    Kafka是最初由Linkedin公司开发,是一个 分布式、支持分区的(partition)、多副本的 (replica) ,基于zookeeper协调的分布式消息系统,它的 最大的特性就是可以实时的处理大量数据以满足各种需求场景 :比如基于hadoop的批处理系统、低延迟的实时系统、 Storm/Spark流式处理引擎,

    2024年02月12日
    浏览(42)
  • Kafka相关知识

    Broker:kafka集群中的实例 Topic:队列的主题,逻辑概念; Partition:Topic分区,物理概念,同意parttion内消息有序; Producer Consumer:生产消息的客户端 消费消息的客户端,kafka认为是服务器。 将每个Topic划分为多个分区Partition,每个分区时一组有序的消息日志,分区内每条消息都

    2024年02月03日
    浏览(23)
  • Kafka - Broker 详解

    目录 零、前置 一、Kafka Broker 工作流程 1.Zookeeper 存储的 Kafka 信息 2.Kafka Broker 总体工作流程 模拟 Kafka 上下线,Zookeeper 中数据变化 3.Broker 重要参数 二、生产经验 节点服役和退役 1.服役新节点 新节点准备 执行负载均衡操作 生成负载均衡的计划 执行副本存储计划 验证副本存

    2024年01月24日
    浏览(33)
  • 「Kafka」Broker篇

    主要讲解的是在 Kafka 中是怎么存储数据的,以及 Kafka 和 Zookeeper 之间如何进行数据沟通的。 Zookeeper 存储的 Kafka 信息 启动 Zookeeper 客户端: 通过 ls 命令可以查看 kafka 相关信息: Kafka Broker 总体工作流程 模拟 Kafka 上下线,Zookeeper 中数据变化: 查看 /kafka/brokers/ids 路径上的节

    2024年01月18日
    浏览(33)
  • 深入Kafka broker

    颗粒度, PRODUCE和FETCH中支持topic,partion等层级的颗粒度; 测试友好, 基于session_id和epoch确定一条拉取链路的fetch session; 全量增量结合, FetchRequest中的全量拉取和增量拉取; 基本结构: header+body。 常见header: api_key, api_version, corelation_id, client_id。与网络协议类似, Kafka本身的协议也是分

    2024年01月22日
    浏览(71)
  • 【kafka】——Broker

    1 /kafka/brokers/dis 存储broker的id,记录有哪些服务器 2 /kafka/brokers/topics 存储topic 相关信息 3 /kafka/consumers Kafka 0.9 版本之前 用于保存offset信息 Kafka 0.9 版本之后offser存储在Kafka主题中 4 /kafka/controller 辅助选举Leader 1 Broker 启动后在Zookeeper中注册 2 每个节点中的Contoller 抢先在Zookeepe

    2024年02月09日
    浏览(33)
  • 四、Kafka Broker

    4.1.1 Zookeeper 存储的 Kafka 信息 4.1.2 Kafka Broker 总体工作流程 自己的理解:其实就是将kafka的分区,负载到集群中的各个节点上。 1、服役新节点 2、退役旧节点 1、副本的作用 2、Leader的选举流程 选举规则:在isr中存活为前提,按照AR中排在前面的优先。例如ar[1,0,2], isr [1,0,

    2024年02月11日
    浏览(30)
  • KafKa 3.x(二、Broker,消费者)

    4.1.1 Zoopkeeper存储的Kafka信息 启动Zookeeper客户端 通过ls命令查看kafka相关信息 在Zookeeper的服务端存储的Kafka相关信息 /kafka/brokers/ids [0,1,2] 记录那些服务器 /kafka/brokers/topics/first/partitions/0/state {“leader”:1,“isr”:[1,0,2]} 记录谁是leader,有哪些服务器可用 /kafka/controller {“brokerid”

    2024年02月12日
    浏览(32)
  • kafka的broker和replica和文件存储

    /brokers/ids,记录存在的服务器id /brokers/topics/test/partitions/0/state,记录leader和可用副本服务器 /comsumers,0.9版本之前存储消费者的offset信息,但是会产生zookeeper和broker的跨节点通信 /controller 辅助选举leader。每个broker上都会有一个controller模块,controller在zookeeper注册信息,先注册

    2024年02月13日
    浏览(35)
  • Kafka3.0.0版本——Broker( 退役旧节点)示例

    三台服务器 原始服务器名称 原始服务器ip centos7虚拟机1 192.168.136.27 centos7虚拟机2 192.168.136.28 centos7虚拟机3 192.168.136.29 centos7虚拟机4 192.168.136.30 分别启动4台zookeeper 再分别启动4台kafka brokers中的ids=0、1、2、3都存在,说明4台kafka启动正常,如下图: 查看kafka中的创建过的名称为

    2024年02月13日
    浏览(33)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包