Kafka之安装本地windows环境

这篇具有很好参考价值的文章主要介绍了Kafka之安装本地windows环境。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

1. 下载最新的Kafka版本并提取:

解压kafka_2.13-3.5.0.tgz。

2. 启动Kafka服务

注意:您的本地环境必须安装Java 8+。

1 启动zookeeper服务

cd kafka_2.13-3.5.0/bin/windows
zookeeper-server-start.bat ../../config/zookeeper.properties

2. 启动Kafka broker 服务

cd kafka_2.13-3.5.0/bin/windows
kafka-server-start.bat ../../config/server.properties

好了,你现在有了一个基本的Kafka环境了

3. 创建一个Topic来存储消息


KAFKA是一个分布式事件流平台,可让您跨许多机器阅读,写作,存储和处理事件(也称为文档中的记录或消息)。

示例活动是付款交易,手机的地理位置更新,运输订单,物联网设备或医疗设备的传感器测量等等。 这些事件是组织并存储在主题中的。 非常简化,主题类似于文件系统中的文件夹,事件是该文件夹中的文件。

因此,在您编写第一个事件之前,您必须创建一个Topic。 打开另一个终端会话并运行:

kafka-topics.bat --create --topic quickstart-events --bootstrap-server localhost:9092

结果:

Created topic quickstart-events.

Kafka的所有命令行工具都有其他选项:运行Kafka-Topics.sh命令,而无需任何参数以显示用法信息。 例如,它还可以向您显示诸如新Topic的分区计数之类的详细信息:

kafka-topics.bat --describe --topic quickstart-events --bootstrap-server localhost:9092

结果

Topic: quickstart-events        TopicId: iQ9QVKwkQ1epRjA-BnvxvA PartitionCount: 1       ReplicationFactor: 1    Configs:
        Topic: quickstart-events        Partition: 0    Leader: 0       Replicas: 0     Isr: 0

4. 写消息到Topic里

KAFKA客户端通过网络进行写作(或阅读)事件与Kafka经纪人进行通信。 收到后,经纪人将在您需要的时间内以持久和耐受性的方式存储活动。

运行控制台生产者客户端以将一些事件写入您的Topic。 默认情况下,您输入的每一行都将导致将单独的事件写入Topic。

kafka-console-producer.bat --topic quickstart-events --bootstrap-server localhost:9092
This is my first event
This is my second event

您可以随时使用CTRL-C停止生产者客户端。

Java实现发送消息

pom.xml

<dependency>
      <groupId>org.apache.kafka</groupId>
      <artifactId>kafka-clients</artifactId>
       <version>3.4.1</version>
 </dependency>
	Properties props = new Properties();
	props.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG, "localhost:9092");
	props.put(ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG,org.apache.kafka.common.serialization.StringSerializer.class);
	props.put(ProducerConfig.VALUE_SERIALIZER_CLASS_CONFIG, org.apache.kafka.common.serialization.StringSerializer.class);

	KafkaProducer producer = new KafkaProducer(props);

	try {
	    for (int i =0 ; i <100; i++) {
		String key = "key"+i;
		String message = "message"+i;

		ProducerRecord<Object, Object> record = new ProducerRecord<>("topic1", key, message);
		try {
		    System.out.println("sending message"+i);
		    producer.send(record);
		} catch(SerializationException e) {
		    e.printStackTrace();
		}
	    }
	}finally {
	    producer.flush();
	    producer.close();
	}

5. 读消息

打开另一个终端会话并运行控制台消费者客户端以阅读您刚创建的事件:

kafka-console-consumer.bat --topic quickstart-events --from-beginning --bootstrap-server localhost:9092
This is my first event
This is my second event

您可以随时使用CTRL-C停止消费者客户端。

随意进行实验:例如,切换回制作者终端(上一步)以编写其他事件,并查看这些事件如何立即显示在您的消费者终端中。

由于事件持久存储在Kafka中,因此可以随意阅读尽可能多的消费者。 您可以通过打开另一个终端会话并再次重新运行上一个命令来轻松验证这一点。

Java 代码实现读取消息

    Properties props = new Properties();

	props.put(ConsumerConfig.BOOTSTRAP_SERVERS_CONFIG, "localhost:9092");
	props.put(ConsumerConfig.GROUP_ID_CONFIG, "group1");
	props.put(ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG, "org.apache.kafka.common.serialization.StringDeserializer");
	props.put(ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG, "org.apache.kafka.common.serialization.StringDeserializer");
	props.put(ConsumerConfig.AUTO_OFFSET_RESET_CONFIG, "earliest");

     String topic = "quickstart-events";
     final Consumer<String, String> consumer = new KafkaConsumer<String, String>(props);
     consumer.subscribe(Arrays.asList(topic));


        try {
            while (true) {
                ConsumerRecords<String, String> records = consumer.poll(100);
                for (ConsumerRecord<String, String> record : records) {
                    System.out.printf("offset = %d, key = %s, value = %s \n", record.offset(), record.key(), record.value());
                }
            }
        } finally {
            consumer.close();
        }

参考资料

https://kafka.apache.org/quickstart

https://codenotfound.com/spring-kafka-apache-avro-serializer-deserializer-example.html文章来源地址https://www.toymoban.com/news/detail-612681.html

到了这里,关于Kafka之安装本地windows环境的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • kafka各种环境安装(window,linux,docker,k8s),包含KRaft模式

    1、 本次实验,采用kafka版本为 3.4.0 2、我们首先需要了解一下,一个 Kafka 集群是由下列几种类型的节点构成的,它们充当着不同的作用: Broker 节点 :即 代理节点 ,是 Kafka 中的工作节点,充当消息队列的角色, 负责储存和处理消息 ,每个 Broker 都是一个独立的 Kafka 服务器

    2024年02月10日
    浏览(35)
  • 分布式消息流处理平台kafka(一)-kafka单机、集群环境搭建流程及使用入门

    kafka最初是LinkedIn的一个内部基础设施系统。最初开发的起因是,LinkedIn虽然有了数据库和其他系统可以用来存储数据,但是缺乏一个可以帮助处理持续数据流的组件。 所以在设计理念上,开发者不想只是开发一个能够存储数据的系统,如关系数据库、Nosql数据库、搜索引擎等

    2024年02月16日
    浏览(38)
  • 从零实战本地服务器安装 Docker 部署 ThingsBoard PE 专业版(适用于 Postgres + Kafka 企业级生产环境)

    目录 1、准备工作 2、本地服务器Linux Centos7.9系统安装docker 2.1、检查Linux的内核版本 2.2、卸载Docker旧版本(若有需要) 2.3、安装Docker 2.4、安装Docker引擎 2.5、 启动docker和设置开机⾃启动 3、使用 Docker 安装 ThingsBoard PE 3.1、 拉取 ThingsBoard PE 镜像 3.2、获取许可证密钥 3.3、为

    2024年04月22日
    浏览(38)
  • 【大数据工具】Kafka伪分布式、分布式安装和Kafka-manager工具安装与使用

    Kafka 安装包下载地址:https://archive.apache.org/dist/kafka/ 1. Kafka 伪分布式安装 1. 上传并解压 Kafka 安装包 使用 FileZilla 或其他文件传输工具上传 Kafka 安装包: kafka_2.11-0.10.0.0.tgz 解压安装包 2. 编辑配置文件 3. 拷贝并修改配置文件 分别修改 server2.properties、server3.properties 4. 创建日志

    2024年02月14日
    浏览(34)
  • (四)kafka从入门到精通之安装教程

    Kafka是一个高性能、低延迟、分布式的分布式数据库,可以在分布式环境中实现数据的实时同步和分发。 Zookeeper是一种开源的分布式数据存储系统,它可以在分布式环境中存储和管理数据库中的数据。它的主要作用是实现数据的实时同步和分发,可以用于实现分布式数据库、

    2024年02月11日
    浏览(28)
  • 【Kafka专栏】windows搭建Kafka环境 & 详细教程(01)

    官网:https://kafka.apache.org/quickstart 中文官网:https://kafka.apachecn.org/1/#apache-kafka Apache Kafka 是一个开源分布式事件流平台,已被数千家公司用于高性能数据管道、流分析、数据集成和关键任务应用程序 Kafka和Zookeeper之间的关系可以概括为紧密的合作关系。Kafka是一个高性能、可

    2024年04月25日
    浏览(26)
  • 【Kafka】Linux本地和Docker安装Kafka

    1、上传jdk-8u261-linux-x64.rpm到服务器并安装: 2、配置环境变量: 1、上传zookeeper-3.4.14.tar.gz到服务器 2、解压到/opt: 3、修改Zookeeper保存数据的目录,dataDir: 4、编辑/etc/profile: 设置环境变量ZOO_LOG_DIR,指定Zookeeper保存日志的位置; ZOOKEEPER_PREFIX指向Zookeeper的解压目录; 将Zook

    2024年01月21日
    浏览(31)
  • 【Kafka】Kafka安装:Linux本地和Docker

    1、上传jdk-8u261-linux-x64.rpm到服务器并安装: 2、配置环境变量: 1、上传zookeeper-3.4.14.tar.gz到服务器 2、解压到/opt: 3、修改Zookeeper保存数据的目录,dataDir: 4、编辑/etc/profile: 设置环境变量ZOO_LOG_DIR,指定Zookeeper保存日志的位置; ZOOKEEPER_PREFIX指向Zookeeper的解压目录; 将Zook

    2024年02月22日
    浏览(27)
  • Ubuntu18.04 docker kafka 本地测试环境搭建

    Kafka是一种分布式流处理平台,也是一个高吞吐量的分布式发布订阅消息系统。它由LinkedIn开发,并于2011年成为Apache软件基金会的顶级项目。 Kafka的设计目标是能够处理大规模的消息流,并提供持久性、高吞吐量和低延迟的特性。它的核心概念是发布-订阅模型,其中消息被组

    2024年02月15日
    浏览(52)
  • Window下搭建kafka运行环境

    互联网项目中经常用到MQ,由于本地项目开发连接测试环境kafka很不方便,所有在本机搭建一个kafka,方便开发测试。 提示:Kafka的运行依赖于Zookeeper,所以在运行Kafka之前我们需要安装并运行Zookeeper 下载Zookeeper地址:https://zookeeper.apache.org/releases.html 下载kafka地址:http://kafka

    2024年02月01日
    浏览(33)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包