kafka通过命令行删除指定topic下所有records

这篇具有很好参考价值的文章主要介绍了kafka通过命令行删除指定topic下所有records。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

 1、kafka环境配置

 由于在windows环境下,在kafka官网下载下来Apache Kafka需要将E:\kafka_2.12-3.3.1\bin\windows下的路径加入到环境变量中,方便直接使用kafka工具,其他系统直接使用bin下的工具即可:

2、配置kafka指定topic的json文件,命名为delete.json,此文件放在任意位置都可:

可以查询到目标topic有多少个partions的详情:

kafka-topics.bat --bootstrap-server 10.10.10.1:29094 --describe --topic EVENT.record
#topic为指定topic,partition为目标topic下指定的partion的编号有几个,可以通过查询partions来查看下,offset为指定偏移量,-1为删除所有:
{
    "partitions":[
        {
            "topic":"aa",
            "partition": 0,
            "offset":-1
        },
		{
            "topic":"aa",
            "partition": 1,
            "offset":-1
        }
    ],
    "version":1
}

3、调用kafka删除topic消息工具执行kafka的删除消息命令命令:

kafka-delete-records.bat --bootstrap-server kafka-0.icos.city:29094 --offset-json-file E:\kafka_2.12-3.3.1\delete.json

查询后正常删除

kafka清空topic消息,其他相关技术分享,kafka,java,分布式

 文章来源地址https://www.toymoban.com/news/detail-620485.html

到了这里,关于kafka通过命令行删除指定topic下所有records的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • kafka删除topic消息的三种方式

    kafka删除topic消息的三种方式 方法一:快速配置删除法(确保topic数据不要了) 1.kafka启动之前,在server.properties配置delete.topic.enable=true 2.执行命令bin/kafka-topics.sh --delete --topic test --zookeeper zk:2181或者使用kafka-manager集群管理工具删除 注意:如果kafka启动之前没有配置delete.topic.e

    2024年02月16日
    浏览(41)
  • Kafka - Topic命令 & 命令行操作

    目录 零、前置 一、Topic命令 查看当前服务器中的所有 topic 创建 first topic 查看 first 主题的详情 修改分区数量 删除 topic 二、生产者命令行操作 发送消息 三、消费者命令行操作 消费 first 主题中的数据 Kafka集群的搭建:Kafka + Zookeeper + Hadoop 集群配置 参数 功能 --bootstrap-server

    2024年02月16日
    浏览(36)
  • 大数据篇Kafka消息队列指定Topic打印Key、Value、Offset和Partition

    说到Apache Kafka消息传递系统时,以下是一些关键概念的解释: Key(键):Kafka消息由Key和Value组成。Key是一个可选的字段,它通常用于消息的路由和分区策略。Key的目的是确保具有相同Key的消息被写入同一个分区。当消费者接收到消息时,可以使用Key来进行消息处理和路由操

    2024年02月16日
    浏览(52)
  • Kafka - Topic 消费状态常用命令

    replication-factor:指定副本数量 partitions:指定分区 查看consumer group列表有新、旧两种命令,分别查看新版(信息保存在broker中)consumer列表和老版(信息保存在zookeeper中)consumer列表,因而需要区分指定bootstrap--server和zookeeper参数 这里同样需要根据新、旧版本的consumer,分别指

    2024年01月25日
    浏览(54)
  • kafka查看topic和消息内容命令

    ①创建一个测试用的topic ② 用Kafka的console-producer在topic test 生产消息 ③ 用Kafka的console-consumer 消费topic test的消息 ④查询topic,进入kafka目录: ⑤查询topic内容: ⑥查看topic 为 test的 详细信息 ⑦往topic 为 test的内部生产消息 ⑧从topic 为test的内部消费消息 ⑨删除kafka的测试top

    2024年02月11日
    浏览(56)
  • Kafka - 获取 Topic 生产者发布数据命令

    从头开始获取 20 条数据(等价于时间升序) ./kafka-console-consumer.sh --bootstrap-server localhost:9092 --topic your-topic --from-beginning --max-messages 20 获取最新 20 条数据(等价于时间降序)去掉 --from-beginning 即可(默认) ./kafka-console-consumer.sh --bootstrap-server localhost:9092 --topic your-topic --max-me

    2024年02月14日
    浏览(39)
  • Debezium系列之:多张表按照指定的字段分发数据到Kafka Topic,并保证多张表指定字段相同的值始终出现在相同分区

    根据productInfo和productorder两张表的productId分发数据,相同productId的数据始终出现在相同分区,并且希望两张表相同的订单数据也始终出现在相同分区。 例如关于productInfo表1206827245738502144这个订单的增删改数据始终出现在分区2,那productorder这个表1206827245738502144这个订单的增删

    2024年02月09日
    浏览(44)
  • 查看Kafka集群下所有的topic报错“Timed out waiting for a node assignment. Call: listTopics“

    没有配置主机IP地址。 取消掉 listeners 的注释,然后修改值为 listeners=PLAINTEXT://192.168.88.142:9092 ,其中 192.168.88.142 是当前服务器的IP地址。 注意:Kafka集群中每台服务器上的 server.properties 配置文件都需要修改 listeners 配置项,都修改为自己对应服务器的IP地址。 修改配置后,关

    2024年02月16日
    浏览(47)
  • MFC的文件操作——获取指定文件夹下面所有文件路径和删除指定文件夹下面所有文件

    目录 1.获取指定文件夹下面所有文件路径  2.删除指定文件夹下面所有文件 3.MFC的CString 字符串操作 4.MFC的 Int类型 与 Htuple类型数据之间转换  5.上述提及的函数应用 6.MFC与Halcon联合编程,获取halcon异常 7.MFC获取指定路径下的文件夹路径           ①、文件夹路径获取方式 ②

    2024年02月16日
    浏览(116)
  • 全网最详细地理解Kafka中的Topic和Partition以及关于kafka的消息分发、服务端如何消费指定分区、kafka的分区分配策略(range策略和RoundRobin策略)

    最近在学习kafka相关的知识,特将学习成功记录成文章,以供大家共同学习。 首先要注意的是, Kafka 中的 Topic 和 ActiveMQ 中的 Topic 是不一样的。 在 Kafka 中, Topic 是一个存储消息的逻辑概念,可以认为是一个消息集合。每条消息发送到 Kafka 集群的消息都有一个类别。 物理上

    2024年01月25日
    浏览(43)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包