三、Kafka生产者1---Kafka生产者初始化-new KafkaProducer

这篇具有很好参考价值的文章主要介绍了三、Kafka生产者1---Kafka生产者初始化-new KafkaProducer。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

概述
本文主要是分享Kafka初始化生产者的大体过程

初始化过程中会新建很多对象,本文暂先分享部分对象

1.分区器---Partitioner partitioner

2.重试时间---long retryBackoffMs

3.序列化器---Serializer<K> keySerializer,Serializer<V> valueSerializer

4.拦截器---List<ProducerInterceptor<K, V>> interceptorList

5.累加器---RecordAccumulator accumulator

6.元数据---ProducerMetadata metadata

7.创建sender线程---Sender sender

生产者初始化代码示例:

后续分享这些配置会被用到什么地方,生成上述哪些对象

// 这是构建kafka生产者的[示例代码]
// 设置属性
Properties properties = new Properties();
// 指定连接的kafka服务器的地址,配置多台的服务  用,分割, 其中一个宕机,生产者 依然可以连上(集群)
properties.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG, "[kafka server ip]:[kafka server port]");
// 1.分区器---Partitioner partitioner
properties.put(ProducerConfig.PARTITIONER_CLASS_CONFIG, MyPartitioner.class);
// 2.重试时间---long retryBackoffMs
properties.put(ProducerConfig.RETRY_BACKOFF_MS_CONFIG, 10L);
// 3.key和value的序列化器---Serializer<K> keySerializer,Serializer<V> valueSerializer
properties.put(ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG, StringSerializer.class);
properties.put(ProducerConfig.VALUE_SERIALIZER_CLASS_CONFIG, StringSerializer.class);
// 4.拦截器---List<ProducerInterceptor<K, V>> interceptorList
properties.put(ProducerConfig.INTERCEPTOR_CLASSES_CONFIG, MyInterceptor.class);
// 构建kafka生产者对象
KafkaProducer<String, String> producer = new KafkaProducer<String, String>(properties);

一、分区器

对应初始化时设置的参数:

ProducerConfig.PARTITIONER_CLASS_CONFIG

示意:

分区器是在发送消息时用来计算消息将要发送到哪个分区的,支持自定义分区器

// 这是kafka client 初始化生产者的[源码]
// 如果没有设置自定义分区器,则partitioner为null,会影响到后续初始化逻辑以及发送消息时的逻辑
this.partitioner = config.getConfiguredInstance(
                    ProducerConfig.PARTITIONER_CLASS_CONFIG,
                    Partitioner.class,
                    Collections.singletonMap(ProducerConfig.CLIENT_ID_CONFIG, clientId));
自定义分区器示例代码

如需使用自定义分区器,需要考虑好分区负载问题,切勿为了解决需求盲目使用自定义分区;

分区不合理可能影响broker性能,也是对低负载分区资源的浪费,严重情况下某一分区的消费者负载过大,或某一分区broker负载过大,可能导致雪崩;

// 这是自定义分区器的[示例代码]
public class MyPartitioner implements Partitioner {
    public int partition(String topic, Object key, byte[] keyBytes,
                         Object value, byte[] valueBytes, Cluster cluster) {
        List<PartitionInfo> partitionInfos = cluster.partitionsForTopic(topic);
        int num = partitionInfos.size();
        // 与[org.apache.kafka.clients.producer.internals.DefaultPartitioner]
        // 计算分区时一样的算法
        int parId = Utils.toPositive(Utils.murmur2(valueBytes)) % num;
        return parId;
    }

    public void close() {//do nothing}
    public void configure(Map<String, ?> configs) {//do nothing}
}
分区器使用

1.用户可以通过实现该接口自定义分区器,在生产者调用send方法发送消息时,会使用用户自定义的分区器计算消息要发送到哪个分区,自定义分区器简单实现见上面代码块

org.apache.kafka.clients.producer.KafkaProducer#partition

2.在生产者调用send方法发送消息时,如果使用用户自定义的分区器,允许在第一次将消息放入本地缓存失败时,进行一次尝试:重现分配分区和本地缓存

// 这是kafka生产者调用send方法发送消息时的部分[源码]
// check if we have an in-progress batch
Deque<ProducerBatch> dq = topicInfo.batches.computeIfAbsent(effectivePartition, k -> new ArrayDeque<>());
synchronized (dq) {
    // After taking the lock, validate that the partition hasn't changed and retry.
    if (partitionChanged(topic, topicInfo, partitionInfo, dq, nowMs, cluster))
        continue;
    RecordAppendResult appendResult = tryAppend(timestamp, key, value, headers, callbacks, dq, nowMs);
    if (appendResult != null) {
        // 这是第一次就将消息添加到缓存后返回
        // If queue has incomplete batches we disable switch (see comments in updatePartitionInfo).
        boolean enableSwitch = allBatchesFull(dq);
        topicInfo.builtInPartitioner.updatePartitionInfo(partitionInfo, appendResult.appendedBytes, cluster, enableSwitch);
        return appendResult;
    }
}

// 这是第一次尝试将消息放入本地缓存失败后,判断如果使用户自定义的分区器,则返回一个对象
// 该对象将在append方法的调用处进行重新计算分区并重试一次
// we don't have an in-progress record batch try to allocate a new batch
if (abortOnNewBatch) {
    // Return a result that will cause another call to append.
    return new RecordAppendResult(null, false, false, true, 0);
}

该对象还有别的使用场景暂不介绍

二、重试时间

对应初始化时设置的参数

ProducerConfig.RETRY_BACKOFF_MS_CONFIG

示意:

The amount of time to wait before attempting to retry a failed request to a given topic partition. This avoids repeatedly sending requests in a tight loop under some failure scenarios.

尝试重试对给定主题分区的失败请求之前等待的时间。这避免了在某些失败场景下以紧密循环的方式重复发送请求。

重试时间的使用

1.初始化累加器时作为入参,保存到累加器字段[long retryBackoffMs]中,用于sender线程发送消息时检测重试超时

2.初始化元信息对象[org.apache.kafka.clients.Metadata]时,放入字段[long refreshBackoffMs]中,用于更新元信息前判断等待时间

总结该字段主要用于向服务器循环发送请求时停顿等待

三、序列化器

对应初始化时设置的参数

ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG

ProducerConfig.VALUE_SERIALIZER_CLASS_CONFIG

示意:

Serializer class for key that implements the org.apache.kafka.common.serialization.Serializerinterface.
实现org.apache.kafka.common.serialization.Serializer接口的key序列化程序类。


Serializer class for value that implements the org.apache.kafka.common.serialization.Serializer interface.

实现org.apache.kafka.commun.serialization.Serializer接口的值的序列化程序类。

自定义序列化器
// 序列化对象
public class UserSerializer implements Serializer<User> {
    public void configure(Map<String, ?> configs, boolean isKey) {
        //do nothing
    }

    public byte[] serialize(String topic, User data) {
        try {
            byte[] name;
            int nameSize;
            if (data == null) {
                return null;
            }
            if (data.getName() != null) {
                name = data.getName().getBytes("UTF-8");
                //字符串的长度
                nameSize = data.getName().length();
            } else {
                name = new byte[0];
                nameSize = 0;
            }
            /*id的长度4个字节,字符串的长度描述4个字节,
            字符串本身的长度nameSize个字节*/
            ByteBuffer buffer = ByteBuffer.allocate(4 + 4 + nameSize);
            buffer.putInt(data.getId());//4
            buffer.putInt(nameSize);//4
            buffer.put(name);//nameSize
            return buffer.array();
        } catch (Exception e) {
            throw new SerializationException("Error serialize User:" + e);
        }
    }

    public void close() {
        //do nothing
    }
}

// 反序列化
public class UserDeserializer implements Deserializer<User> {


    public void configure(Map<String, ?> configs, boolean isKey) {
        //do nothing
    }

    public User deserialize(String topic, byte[] data) {
        try {
            if (data == null) {
                return null;
            }
            if (data.length < 8) {
                throw new SerializationException("Error data size.");
            }
            ByteBuffer buffer = ByteBuffer.wrap(data);
            int id;
            String name;
            int nameSize;
            id = buffer.getInt();
            nameSize = buffer.getInt();
            byte[] nameByte = new byte[nameSize];
            buffer.get(nameByte);
            name = new String(nameByte, "UTF-8");
            return new User(id, name);
        } catch (Exception e) {
            throw new SerializationException("Error Deserializer DemoUser." + e);
        }

    }

    public void close() {
        //do nothing
    }
}

// 消息中的实体类
public class User {
    private int id;
    private String name;

    public User(int id) {
        this.id = id;
    }

    public User(int id, String name) {
        this.id = id;
        this.name = name;
    }

    public int getId() {
        return id;
    }

    public void setId(int id) {
        this.id = id;
    }

    public String getName() {
        return name;
    }

    public void setName(String name) {
        this.name = name;
    }

    @Override
    public String toString() {
        return "User{" +
                "id=" + id +
                ", name='" + name + '\'' +
                '}';
    }
}

使用自定义序列化器时需要在消费者消费消息时使用反序列化器将消息反序列化,一般常用的就是字符串序列化器

org.apache.kafka.common.serialization.StringSerializer

四、拦截器

对应初始化时设置的参数

ProducerConfig.INTERCEPTOR_CLASSES_CONFIG

示意:

Implementing the org.apache.kafka.clients.producer.ProducerInterceptor interface allows you to intercept (and possibly mutate) the records received by the producer before they are published to the Kafka cluster. By default, there are no interceptors

通过实现org.apache.kafka.clients.producer.ProducerInterceptor接口,您可以在生产者接收到的记录发布到kafka集群之前拦截这些记录。默认情况下,没有拦截器

自定义序拦截器
// 这是自定义序列化器[示例代码]
public class MyInterceptor implements ProducerInterceptor<String, String> {
    private long successCount = 0L;
    private long errorCount = 0L;

    //该方法:Producer在将消息序列化和分配分区之前会调用拦截器的这个方法来对消息进行相应的操作
    @Override
    public ProducerRecord<String, String> onSend(ProducerRecord<String, String> record) {
        //要把发送的value都带上时间戳
        return new ProducerRecord<String, String>(record.topic(), record.partition(), record.timestamp(), record.key(), System.currentTimeMillis() + record.value(), record.headers());
    }

    //发送消息情况统计

    //该方法:会在消息从RecordAccumulator成功发送到Kafka Broker之后,或者在发送过程中失败时调用。并且通常都是在producer回调逻辑触发之前
    @Override
    public void onAcknowledgement(RecordMetadata metadata, Exception exception) {
        if (exception == null) {
            successCount++;
        } else {
            errorCount++;
        }
    }
    //该方法:可以关闭拦截器,主要用于执行一些资源清理工作
    @Override
    public void close() {
        //producer发送数据结束并close后,会自动调用拦截器的close方法来输出统计的成功和失败次数
        System.out.println("成功次数=" + successCount);
        System.out.println("失败次数=" + errorCount);
    }

    @Override
    public void configure(Map<String, ?> configs) {

    }
}

五、累加器

这是Kafka中非常重要的内部组件,主要用于缓存消息以便批量发送,从而减少网络传输的资源消耗并提升性能。

简单概述:

对于生产者的作用是使用累加器,可以让生产者不必每次发送消息就即刻推送到broker,可以将一个topic的同一分区消息写入同一份缓存,等待sender线程批量获取这批消息一次性发送到broker。减少生产者发起网络调用的次数。

对broker而言的作用是,broker也可以一次性将接收到的这一批多个消息以顺序IO的方式追加到文件中,提高了储存效率。

示意:

This class acts as a queue that accumulates records into MemoryRecords instances to be sent to the server.

The accumulator uses a bounded amount of memory and append calls will block when that memory is exhausted, unless
this behavior is explicitly disabled.

此类充当一个队列,将记录累积到要发送到服务器的MemoryRecords实例中。
累加器使用一定量的内存,当内存耗尽时,追加调用将被阻塞,除非此行为被明确禁用。

累加器核心作用

1.消息缓存:RecordAccumulator实际上是在客户端开辟出的一块内存区域,主要用来缓存消息。这种缓存机制允许Sender线程后续批量发送消息,而不是每调用一次send方法就直接将消息发送给broker。
2.批量发送:当触发发送条件如MemoryRecords缓存或者Deque队列满了或者一个队列等待时间达到配置时间,sender线程将一次性将这批消息发送给broker。这种方式可以减少网络请求的数量,提高系统的吞吐量。这些触发条件可参考下面参数配置的
buffer.memory,batch.size,linger.ms,max.block.ms
3.资源管理:如果生产者发送消息的速度超过发送到服务器的速度,那么累加器中空间不足的话,就会导致生产者无法继续发送消息。在这种情况下,生产者可以通过设置max.block.ms参数来控制是否阻塞或者抛出异常。如果max.block.ms参数的默认值为60000(即60秒),那么超过这个时间限制后,如果累加器仍然没有足够的空间,生产者将无法继续发送消息。

关于累加器的实现,涉及到内部缓存管理,broker服务器元数据统计,sender线程交互等逻辑,后续再进行分享吧

如下这些参数都是有关累加器的重要配置,直接影响kafka生产者发送消息的性能

配置 解释 默认值
buffer.memory Producer 用来缓冲等待被发送到服务器的记录的总字节数。如果记录发送的速度比发送到服务器的速度快, Producer 就会阻塞,如果阻塞的时间超过 max.block.ms 配置的时长,则会抛出一个异常。

这个配置与 Producer 的可用总内存有一定的对应关系,但并不是完全等价的关系,因为 Producer 的可用内存并不是全部都用来缓存。一些额外的内存可能会用于压缩(如果启用了压缩),以及维护正在运行的请求。

33554432
batch.size 当将多个记录被发送到同一个分区时, Producer 将尝试将记录组合到更少的请求中。这有助于提升客户端和服务器端的性能。这个配置控制一个批次的默认大小(以字节为单位)。

当记录的大小超过了配置的字节数, Producer 将不再尝试往批次增加记录。

发送到 broker 的请求会包含多个批次的数据,每个批次对应一个 partition 的可用数据

小的 batch.size 将减少批处理,并且可能会降低吞吐量(如果 batch.size = 0的话将完全禁用批处理)。 很大的 batch.size 可能造成内存浪费,因为我们一般会在 batch.size 的基础上分配一部分缓存以应付额外的记录。

16384
linger.ms producer 会将两个请求发送时间间隔内到达的记录合并到一个单独的批处理请求中。通常只有当记录到达的速度超过了发送的速度时才会出现这种情况。然而,在某些场景下,即使处于可接受的负载下,客户端也希望能减少请求的数量。这个设置是通过添加少量的人为延迟来实现的;即,与其立即发送记录, producer 将等待给定的延迟时间,以便将在等待过程中到达的其他记录能合并到本批次的处理中。这可以认为是与 TCP 中的 Nagle 算法类似。这个设置为批处理的延迟提供了上限:一旦我们接受到记录超过了分区的 batch.size ,Producer 会忽略这个参数,立刻发送数据。但是如果累积的字节数少于 batch.size ,那么我们将在指定的时间内“逗留”(linger),以等待更多的记录出现。这个设置默认为0(即没有延迟)。例如:如果设置linger.ms=5 ,则发送的请求会减少并降低部分负载,但同时会增加5毫秒的延迟。 0
max.block.ms 该配置控制 KafkaProducer.send()KafkaProducer.partitionsFor() 允许被阻塞的时长。这些方法可能因为缓冲区满了或者元数据不可用而被阻塞。用户提供的序列化程序或分区程序的阻塞将不会被计算到这个超时。

六、初始化元数据

对应初始化时设置的参数

ProducerConfig.METADATA_MAX_AGE_CONFIG

示意:

The period of time in milliseconds after which we force a refresh of metadata even if we haven't seen any partition leadership changes to proactively discover any new brokers or partitions.

以毫秒为单位的时间段,在此之后,即使我们没有看到任何主分区的变化,我们也会强制刷新元数据,以主动发现任何新的代理或分区

---元数据刷新时间

ProducerConfig.METADATA_MAX_IDLE_CONFIG

示意:

Controls how long the producer will cache metadata for a topic that's idle. If the elapsed time since a topic was last produced to exceeds the metadata idle duration, then the topic's metadata is forgotten and the next access to it will force a metadata fetch request.

控制生产者为空闲主题缓存元数据的时间。如果自上次生成主题以来经过的时间超过了元数据空闲持续时间,则该主题的元数据将被遗忘,下一次对其的访问将强制执行元数据获取请求。

---生产者客户端为[某一主题]缓存元数据的时间,超过该时间后获取该主题元数据将强制从broker获取

初始化元数据信息分为两部分,第一部分初始化ProducerMetadata对象,设置元数据,topic信息缓存空闲时间如下源代码:

this.metadata = new ProducerMetadata(retryBackoffMs,
        config.getLong(ProducerConfig.METADATA_MAX_AGE_CONFIG),
        config.getLong(ProducerConfig.METADATA_MAX_IDLE_CONFIG),
        logContext,
        clusterResourceListeners,
        Time.SYSTEM);

第二部分为加载broker节点信息Node,源代码如下:

Node:org.apache.kafka.common.Node

this.metadata.bootstrap(addresses);
...
public synchronized void bootstrap(List<InetSocketAddress> addresses) {
    this.needFullUpdate = true;
    this.updateVersion += 1;
    this.cache = MetadataCache.bootstrap(addresses);
}
...
static MetadataCache bootstrap(List<InetSocketAddress> addresses) {
    Map<Integer, Node> nodes = new HashMap<>();
    int nodeId = -1;
    for (InetSocketAddress address : addresses) {
        nodes.put(nodeId, new Node(nodeId, address.getHostString(), address.getPort()));
        nodeId--;
    }
    return new MetadataCache(null, nodes, Collections.emptyList(),
            Collections.emptySet(), Collections.emptySet(), Collections.emptySet(),
            null, Collections.emptyMap(), Cluster.bootstrap(addresses));
}

上面只是初始化元数据最外层的代码,bootstrap是kafka生产者客户端初始化broker信息缓存的入口,执行这个方法后这个客户端将缓存kakfa broker的节点信息,每个节点的topic信息,分片信息等缓存。在客户端发送消息时,将通过这些缓存信息给broker发起请求,所以这块缓存是生产者客户端非常重要的部分,详情请看:三、Kafka生产者4---核心组件[元数据]-Metadata-CSDN博客

七、创建sender线程

是一个无限循环运行在后台的线程,会一直等待累加器中缓存的消息达到发送条件,把消息发送给Broker

发送的核心流程是:

1.从累加器中批量获取消息并创建 ClientRequest对象
2.将ClientRequest对象交给NetworkClient客户端发送
3.NetworkClient客户端将请求放入KafkaChannel的缓存
4.NetworkClient执行网络 I/O,完成请求的发送
5.NetworkClient收到响应,调用 ClientRequest 的回调函数,触发每个消息上注册的回调函数

总结:

本文大致介绍初始化kafka生产者的核心逻辑,创建的各类后续用于发送消息的对象,线程,配置信息等;

这些配置将直接影响生产者发送消息的性能和可靠性,如果需要在复杂应用场景下追求两者的平衡,需要对这些参数有深刻认识并调试验证后上线!

kafka生产者配置参数中文网站:3. 配置 - 【布客】kafka 中文翻译

kafka生产者配置参数英文网站:https://kafka.apache.org/documentation/#producerconfigs文章来源地址https://www.toymoban.com/news/detail-839800.html

到了这里,关于三、Kafka生产者1---Kafka生产者初始化-new KafkaProducer的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • Kafka生产者

    1.acks 如果acks=0,生产者在成功写入消息之前不会等待任何来自服务器的响应。 缺点:如果当中出现了问题,导致服务器没有收到消息,那么生产者就无从得知,消息就丢失了 优点:因为生产者不需要等待服务器的响应,所有他可以以网络能够支持的最大速度发送消息,从而

    2024年01月19日
    浏览(37)
  • kafka学习-生产者

    目录 1、消息生产流程 2、生产者常见参数配置 3、序列化器 基本概念 自定义序列化器 4、分区器 默认分区规则 自定义分区器 5、生产者拦截器 作用 自定义拦截器 6、生产者原理解析 在Kafka中保存的数据都是字节数组。 消息发送前,需要将消息序列化为字节数组进行发送。

    2024年02月09日
    浏览(39)
  • (三)Kafka 生产者

    创建一个 ProducerRecord 对象,需要包含目标主题和要发送的内容,还可以指定键、分区、时间戳或标头。 在发送 ProducerRecord 对象时,生产者需要先把键和值对象序列化成字节数组,这样才能在网络上传输。 如果没有显式地指定分区,那么数据将被传给分区器。分区器通常会基

    2024年02月09日
    浏览(40)
  • 「Kafka」生产者篇

    在消息发送的过程中,涉及到了 两个线程 —— main 线程 和 Sender 线程 。 在 main 线程中创建了 一个 双端队列 RecordAccumulator 。 main线程将消息发送给RecordAccumulator,Sender线程不断从 RecordAccumulator 中拉取消息发送到 Kafka Broker。 main线程创建 Producer 对象,调用 send 函数发送消息,

    2024年01月19日
    浏览(42)
  • 三、Kafka生产者

    1 发送原理 在消息发送的过程中,涉及到了两个线程——main 线程和 Sender 线程。在 main 线程中创建了一个双端队列 RecordAccumulator。main 线程将消息发送给 RecordAccumulator,Sender 线程不断从 RecordAccumulator 中拉取消息发送到 Kafka Broker 【RecordAccumulator缓冲的结构: 每一个分区对应一

    2024年02月12日
    浏览(40)
  • 【Kafka】高级特性:生产者

    整个流程如下: Producer创建时,会创建一个Sender线程并设置为守护线程。 生产消息时,内部其实是异步流程;生产的消息先经过拦截器-序列化器-分区器,然后将消息缓存在缓冲区(该缓冲区也是在Producer创建时创建)。 批次发送的条件为:缓冲区数据大小达到batch.size或者

    2024年01月24日
    浏览(35)
  • Kafka生产者相关概念

    Kafka中消息是以topic进行分类的,Producer生产消息,Consumer消费消息,都是面向topic的。 Topic是逻辑上的概念,Partition是物理上的概念,每个Partition对应着一个log文件,该log文件中存储的就是producer生产的数据。 写入方式 producer采用推(push)模式将消息发布到broker,每条消息都

    2024年04月13日
    浏览(34)
  • Apache Kafka - 重识Kafka生产者

    Kafka 生产者是 Apache Kafka 中的一个重要组件,它负责将数据发送到 Kafka 集群中。在实时数据处理和流式处理应用程序中,Kafka 生产者扮演着非常重要的角色。 这里我们将介绍 Kafka 生产者的概念、工作原理以及如何使用 Kafka 生产者。 Kafka 生产者是一种用于将数据发送到 Kafk

    2024年02月05日
    浏览(42)
  • [kafka消息生产被阻塞] - 如何解决Kafka生产者阻塞的问题

    [kafka消息生产被阻塞] - 如何解决Kafka生产者阻塞的问题 Kafka是一个高度可扩展的分布式流平台,用于构建实时数据管道和流处理应用程序。作为一个广泛使用的消息代理系统,Kafka在数据传输方面表现出色,但是在极端情况下,它可能会出现生产者阻塞的问题。这可能会导致

    2024年02月11日
    浏览(49)
  • 【kafka生产者启动报错】

    因为之前在配置文件中写死了ip地址,所以现在这边启动的时候不能再使用localhost作为ip地址了。 将localhos调整为配置文件中的ip即可: 1. 生产者: 2. 消费者: 消息收发成功

    2024年02月13日
    浏览(30)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包