kafka各种环境安装(window,linux,docker,k8s),包含KRaft模式

这篇具有很好参考价值的文章主要介绍了kafka各种环境安装(window,linux,docker,k8s),包含KRaft模式。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

一、前言(Kafka 集群中的节点类型)

1、本次实验,采用kafka版本为 3.4.0

2、我们首先需要了解一下,一个 Kafka 集群是由下列几种类型的节点构成的,它们充当着不同的作用:

  • Broker节点:即代理节点,是 Kafka 中的工作节点,充当消息队列的角色,负责储存和处理消息,每个 Broker 都是一个独立的 Kafka 服务器,可以在不同的机器上运行,除此之外 Broker 还负责分区(partition)的管理,将主题(topic)划分为多个分区,并分布在集群的不同 Broker 上

  • Controller节点:即控制器节点,是集群中的特殊节点,负责储存和管理整个集群元数据状态,它能够监控整个集群中的 Broker,在需要时还能够进行平衡操作

  • 混合节点:即同时担任 Broker 和 Controller 节点角色的节点

3、建议强烈阅读 linux下的安装,里面包含了很多参数的定义说明,理解之后,会方便后续的搭建。

二、重要配置介绍

无论是那种模式的集群,我们都涉及到了许多配置项,大家通过 linux下的安装搭建示例 也能够了解到每个配置项的意义,这里就专门来着重介绍一下,Kafka 中一些重要的配置项。

2.1、listeners

这个配置项用于指定 Kafka 服务器监听客户端连接的地址和端口,当 Kafka 服务器启动时,它将监听listeners配置项中指定的地址和端口,等待客户端的连接请求。

一般情况下这个配置以PLAINTEXT://或者CONTROLLER://开头,意义如下:

  • 若这个节点是 Broker 节点,则以PLAINTEXT://开头
  • 若这个节点是 Controller 节点,则以CONTROLLER://开头
  • 若这个节点是混合节点,则需要同时配置两者开头的地址

这个配置项通常不需要修改,下面给出几个配置示例:

  • PLAINTEXT://:9092 本节点作为 Broker 节点,监听本机所有可用网卡9092端口(使用9092端口作为客户端通信端口),也是默认配置
  • PLAINTEXT://127.0.0.1:9092 本节点作为 Broker 节点,监听本地的9092端口,这样仅接受来自本地的请求
  • CONTROLLER://:10000 本节点作为 Controller 节点,监听本机所有可用网卡10000端口(使用10000端口作为控制器端口
  • PLAINTEXT://:9092,CONTROLLER://:9093 本节点作为混合节点,监听本机所有可用网卡90929093端口,其中9092作为客户端通信端口9093作为控制器端口

2.2、advertise.listeners

这个配置容易和listeners混淆,事实上它们是有较大的区别的。

该配置项指定 Kafka 服务器广播给客户端的地址和端口,通常配置为 Kafka 所在服务器的外网地址

当客户端(生产者或消费者)尝试连接到 Kafka 服务器时,它首先会获取 Kafka 服务器广播的地址和端口,也就是advertise.listeners配置所指定的地址和端口,然后才会使用advertise.listeners配置所指定的地址和端口来建立与 Kafka 服务器的连接。

相信这时大家会有个疑问:既然客户端要连接 Kafka(例如 Spring Boot 集成 Kafka 客户端),那一定是已经知道了 Kafka 对外的地址端口了,那为什么连接的时候还需要获取一下广播的地址端口再进行连接呢?这样是不是有一些多此一举?

事实上,Kafka 设计这个配置是为了解决下面较为复杂的网络场景:

  • 多网络接口的主机部署:在一个多网络接口的主机部署 Kafka 时,Kafka 服务器可能会监听多个地址和端口,这些地址和端口可能与客户端实际访问的地址和端口不同,advertise.listeners允许服务器指定一个公开的、可访问的地址和端口,以便客户端能够正确连接
  • NAT / 代理环境:在某些网络环境下,Kafka 服务器位于一个私有网络中,客户端位于一个公共网络中,两者之间可能存在网络地址转换(NAT)或代理,在这种情况下,Kafka 服务器的内部地址和端口对客户端来说是不可访问的。通过使用advertise.listeners,Kafka 服务器可以将一个公共地址和端口广播给客户端,使得客户端能够通过公共网络连接到服务器
  • 容器环境:例如你把 Kafka 放在 Docker 容器中运行,按照默认配置,Kafka 服务端只会监听容器网络的9092端口,我们知道外部不能直接访问容器的网络,而是需要使用网络映射,假设你把 Kafka 容器的9092端口映射至了宿主机9095端口,也就是说外部需要通过9095端口访问到 Kafka 容器的9092端口,那么你就配置advertise.listenersPLAINTEXT://服务器外网地址:9095,客户端就可以正确访问容器中的 Kafka 了

总之,这个配置设置为 Kafka 服务器所在的外网地址即可!例如PLAINTEXT://69.54.112.239:9092

2.3、process.roles

这是 KRaft 模式下专门的配置,用于配置这个节点的类型,可以配置为下列值:

  • broker 表示这个节点是 Broker 节点,充当消息队列的角色
  • controller 表示这个节点是 Controller 节点,充当元数据存放和管理的角色
  • broker,controller 表示这个节点同时担任 Broker 和 Controller 的角色,也称作混合节点

如果没有配置这个选项,则 Kafka 会以 Zookeeper 模式运行。

这里有下列注意事项:

  • 如果设定节点为controller
    • 不能配置advertised.listeners,可以将其注释掉或者删掉
    • listeners需要配置为CONTROLLER://开头,建议配置为CONTROLLER://:9093
  • 如果设定节点为broker
    • 则需要配置advertised.listeners为服务器外网地址和端口,这和 Zookeeper 模式中相同
    • listeners需要配置为PLAINTEXT://开头,建议配置为PLAINTEXT://:9092
  • 如果设定节点为混合节点:
    • 同样需要配置advertised.listeners为服务器外网地址和端口
    • listeners需要同时配置CONTROLLER://PLAINTEXT://,建议配置为PLAINTEXT://:9092,CONTROLLER://:9093

在开发环境或者小规模集群,可以全部使用混合节点,如果是生产环境就建议设定好每个节点的类型了!并且通常需要先启动 Controller 节点再启动 Broker 节点。

事实上,我们发现 Kafka 的 KRaft 配置目录config/kraft下有三个配置文件,其中server.properties是混合节点的配置模板,而broker.propertiescontroller.properties分别是 Broker 节点和 Controller 节点的配置模板,大家如果要设定节点类型,可以直接使用对应的配置文件,将对应配置文件需要修改的部分修改一下,然后将上述格式化数据目录命令和启动命令中的配置文件路径改变一下即可,这样可以省略我们设定process.roleslisteners或者控制器节点删除advertise.listeners配置的操作。

2.4、 controller.quorum.voters

该配置项用于配置集群中 Controller 节点选举过程中的投票者,集群中所有的 Controller 节点都需要被罗列在这个配置项中,其配置格式为id1@host1:port1,id2@host2:port2,id3@host3:port3...

有的同学可能认为这里需要把集群中所有节点都写进去,事实上这是错误的,这里只需要写所有的 Controller 节点和混合节点id、地址和端口即可,这个配置中配置的端口当然是控制器端口

下述集群搭建的例子中,由于所有的节点都是混合节点,因此就全部写在其中了!如果我们手动设定每个节点的类型,例如:

节点名 节点id 地址 服务器通信端口 控制器端口 节点类型
Kafka 节点 1 1 kafka1 / 9093 Controller
Kafka 节点 2 2 kafka2 9092 / Broker
Kafka 节点 3 3 kafka3 9092 / Broker

那么所有节点的controller.quorum.voters都需要配置为1@kafka1:9093

事实上,所有的节点都是通过这个配置中的节点列表,来得知所有的控制器节点信息(以获取集群元数据)并得到投票候选者的,因此集群中所有节点,不论是 Broker 还是 Controller,还是混合节点,都需要配置这一项。

2.5、 其它配置

除了上述我们涉及到的一些配置之外,还有下列配置大家可以进行修改:

  • socket.send.buffer.bytes 每次发送的数据包的最大大小(单位:字节)
  • socket.receive.buffer.bytes 每次接收的数据包的最大大小(单位:字节)
  • socket.request.max.bytes 接收的最大请求大小(单位:字节)
  • num.partitions 每个Topic的默认分区数

上述无论是哪个模式的集群,都可以在配置文件中找到这些配置,如果找不到可手动加入。除了修改配置文件之外,我们还可以在启动 Kafka 的命令中指定配置和值,例如:

bin/kafka-server-start.sh config/server.properties --override zookeeper.connect=127.0.0.1:2181 --override broker.id=1

上述命令在启动时通过命令指定了zookeeper.connect配置值为127.0.0.1:2181,以及broker.id1,可见在后面追加--override 配置名=值即可,注意命令行中指定的配置值会覆盖掉配置文件中的配置值!

三、linux 安装

1、下载对应版本的linux 压缩包

2、Linux环境需要安装jdk1.8+

可以参考 linux系统安装jdk8详细教程

kafka各种环境安装(window,linux,docker,k8s),包含KRaft模式,MQ,kafka

3.1、Kafka with ZooKeeper 单节点

1、解压

tar -xzf kafka_2.13-3.4.0.tgz
cd kafka_2.13-3.4.0

kafka各种环境安装(window,linux,docker,k8s),包含KRaft模式,MQ,kafka

2、启动zookeeper 服务

# Start the ZooKeeper service
$ bin/zookeeper-server-start.sh config/zookeeper.properties

3、启动 kafka 服务

# Start the Kafka broker service
$ bin/kafka-server-start.sh config/server.properties

3.2、Kafka with KRaft 单节点

1、解压

tar -xzf kafka_2.13-3.4.0.tgz
cd kafka_2.13-3.4.0

kafka各种环境安装(window,linux,docker,k8s),包含KRaft模式,MQ,kafka

2、生成集群 UUID

KAFKA_CLUSTER_ID="$(bin/kafka-storage.sh random-uuid)"

3、格式化日志目录,使用上面的 KAFKA_CLUSTER_ID 参数

注意这里使用的是 config/kraft/server.properties,你可以点进去看下配置,可以看到,当前的这个配置的角色是 broker,controller了,就不再需要zookeeper了
kafka各种环境安装(window,linux,docker,k8s),包含KRaft模式,MQ,kafka

bin/kafka-storage.sh format -t $KAFKA_CLUSTER_ID -c config/kraft/server.properties

3、启动kafka 服务

bin/kafka-server-start.sh config/kraft/server.properties

kafka各种环境安装(window,linux,docker,k8s),包含KRaft模式,MQ,kafka

3.3、Kafka with ZooKeeper 集群

这是一种比较简单,相对 “传统” 的搭建方式了!在这种模式下,每个 Kafka 节点都是依赖于 Zookeeper 的,使用 Zookeeper 存储集群中所有节点的元数据。

只要所有的 Kafka 节点连接到同一个 Zookeeper 上面(或者同一个 Zookeeper 集群),这些 Kafka 节点就构成了一个集群。所以说就算是只有一个 Kafka 节点在运行,这一个节点也可以称作一个集群。

在 Zookeeper 模式集群中,Zookeeper 节点(或者集群)就充当了 Controller 的角色,而所有的 Kafka 节点就充当着 Broker 的角色。

下面就来介绍一下搭建过程,这里我在4台Linux虚拟机上分别运行Zookeeper和Kafka来模拟一个集群,一共一个Zookeeper节点和三个Kafka节点构成,如下:

节点名 地址和端口
Zookeeper节点 zookeeper:2181
Kafka节点1 kafka1:9092
Kafka节点2 kafka2:9092
Kafka节点3 kafka3:9092

上述地址例如kafka1等等,是通过修改虚拟机的主机名(hostname)实现的,这样虚拟机之间可以直接通过这些主机名相互访问,这个主机名我们就可以视作实际在服务器上面搭建时,服务器的外网地址或者域名,这里就不再赘述如何修改虚拟机的主机名了,需要保证上述所有虚拟机在一个虚拟机网段中并且能够互相ping通,即上述所有虚拟机需要两两之间可以通过网络互相访问。

运行Kafka和Zookeeper都需要Java 8及其以上运行环境,大家要首先在虚拟机中安装并配置好。

3.3.1、搭建Zookeeper

首先我们要运行起一个Zookeeper节点,这里就不再赘述Zookeeper节点如何搭建了!搭建可以查看官方文档,或者使用Docker的方式搭建。

搭建完成并运行Zookeeper之后,我们会把所有的Kafka节点都配置到这一个Zookeeper节点上。

3.3.2、 配置并运行所有Kafka节点

首先去 Kafka 官网下载最新版并解压,然后将解压出来的 Kafka 分别复制到三台虚拟机中

然后修改每台虚拟机的 Kafka 目录中的配置文件,配置文件位于解压的 Kafka 文件夹中的config/server.properties,使用文本编辑器打开,并找到下列配置项进行配置:

  • broker.id 表示每个节点的id每个节点需要设置为不一样的整数,我这里分别设置为123

  • zookeeper.connect 表示要使用的 Zookeeper 的地址和端口,我这里都配置为zookeeper:2181

  • advertised.listeners 表示这个 Kafka 节点的外网地址,这里分别配置为PLAINTEXT://kafka1:9092PLAINTEXT://kafka2:9092PLAINTEXT://kafka3:9092,需要注意的是这个配置项必须要配置为其所在服务器的外网地址,如果说你是在一台服务器上面配置 Kafka 并要通过外网访问,这个配置就需要配置为服务器外网地址(域名),并且都以PLAINTEXT://开头

注意上述advertised.listeners这个配置项默认情况下是被注释掉了的,大家需要去仔细找一下并去掉注释(开头的#)然后再进行配置。

三台虚拟机配置完成后,分别使用终端进入到 Kafka 目录下并启动,执行下列命令:

bin/kafka-server-start.sh config/server.properties

在上述三台虚拟机上面都通过这个命令启动 Kafka,到此,整个集群就搭建完成了!大家需要保证上述三台虚拟机中的终端不被关闭。

3.4、Kafka with KRaft 集群

在上述传统方案中,Kafka 需要依赖 Zookeeper 完成元数据存放和共享,这样也就暴露出了一些问题:

  • 搭建 Kafka 集群时还需要额外搭建 Zookeeper,增加了运维成本
  • Zookeeper 是强一致性的组件(符合 CP 理论),如果集群中数据发生变化,那么必须要等到其它节点都同步,至少超过一半同步完成,这样节点数多性能差

那么 KRaft 模式是新版本 Kafka 中推出的集群模式,这种模式下就完全不需要 Zookeeper 了!只需要数个 Kafka 节点就可以直接构成集群,在这时集群中的 Kafka 节点既有可能是 Controller 节点也可能是 Broker 节点,在这个模式中,我们不仅可以手动配置某个节点的角色(是 Controller 还是 Broker),还可以使其同时担任 Broker 和 Controller 角色(混合节点)。

在 KRaft 模式中,集群的节点会通过投票选举的方式,选择出一个主要的 Controller 节点,这个节点也称作领导者,它将负责维护整个集群的元数据和状态信息,那么其它的 Controller 节点或者混合节点就称之为追随者,它们会从领导者同步集群元数据和状态信息。如果领导者宕机了,所有的节点会重新投票选举一个新的领导者。

在选举过程中,所有的节点都会参与投票过程,而候选节点只会是 Controller 节点或者混合节点(即 Broker 节点不会被选举为领导者)。

需要注意的是,在默认情况下 Kafka 集群中的 Broker 节点和 Controller 节点通常会监听不同的端口:

  • Broker 节点是 Kafka 集群中的数据节点(消息队列),它们负责接收客户端的消息和传递消息给客户端,默认情况下,每个 Broker 节点会监听9092端口,该端口用于与客户端进行通信,客户端可以将消息发送到这个端口,或者从这个端口接收消息,这个端口可以称作客户端通信端口
  • Controller 节点是 Kafka 集群中的控制器节点,负责管理集群的状态和元数据,Controller 节点监听的端口通常是9093,该端口用于集群中其他节点获取元数据或在混合节点选举新的 Controller 时进行通信,通过该端口,其他节点可以与 Controller 节点交互,获取集群的元数据信息或参与控制器的选举过程,这个端口可以称作控制器端口
  • 混合节点(即同时担任 Broker 和 Controller 角色的节点)中,这两个端口都会被使用,默认情况下混合节点将监听9092端口接收和传递消息给客户端,并监听9093端口用于与其他节点进行元数据交换和控制器选举通信,可见混合节点会同时使用两个端口分别作为客户端通信端口控制器端口

所以需要根据实际情况配置网络设置和防火墙规则,以确保 Kafka 集群中的节点能够在正确的端口上进行通信。上述提到的两种端口也是可以修改的,当然不建议修改。

同样地,就算是你只是搭建了一个 Kafka 节点,这一个节点也仍然被视为一个 Kafka 集群,并且 KRaft 模式下如果只需要建立一个节点,那么这个节点必须是混合节点。

下面同样是开启三台虚拟机,搭建三个Kafka节点构成的KRaft模式集群如下:

节点名 地址 节点类型 客户端通信端口 控制器端口
Kafka节点1 kafka1 混合节点 9092 9093
Kafka节点2 kafka2 混合节点 9092 9093
Kafka节点3 kafka3 混合节点 9092 9093

这里就不再赘述下载Kafka的过程了!

3.4.1、修改配置文件

在 KRaft 模式下,配置文件位于 Kafka 目录中的config/kraft/server.properties,使用文本编辑器打开并找到下列配置以修改:

  • node.id 表示这个节点的id,一个集群中每个节点id不能重复,需要是不小于1的整数,这里三台虚拟机的配置分别为123(类似上述 Zookeeper 的broker.id配置)
  • controller.quorum.voters 设定投票者列表,即需要配置所有的 Controller 节点id及其地址端口,配置格式为节点1的id@节点1地址:节点1端口,节点2的id@节点2地址:节点2端口,节点3的id@节点3地址:节点3端口...,这里的端口需要是控制器端口,默认都是9093,上面也提到过了,默认不需要修改,我这里三台虚拟机的都配置为1@kafka1:9093,2@kafka2:9093,3@kafka3:9093(实际在服务器上搭建时替换为服务器的外网地址或者域名)
  • advertised.listeners 表示这个 Kafka 节点的外网地址,这里分别配置为PLAINTEXT://kafka1:9092PLAINTEXT://kafka2:9092PLAINTEXT://kafka3:9092(和上述 Zookeeper 模式中的一样,实际在服务器上搭建时替换为服务器的外网地址或者域名)

上述是必须要进行配置的,还有下面配置是可以选择性配置的:

  • process.roles 表示设定这个节点的类型,设定为broker表示设定这个节点为 Broker 节点,同样地设定controller表示设定为 Controller 节点,默认是broker,controller表示这个节点会自动切换节点类型,这里先保持默认不变,下面再来详细讨论

3.4.2、 生成集群 ID 并使用集群 ID 格式化数据目录

在 KRaft 模式下,一个集群需要设定一个id,我们可以使用自带的命令生成,先进入上述任意一台虚拟机并使用终端进入 Kafka 目录中,执行下列命令生成一个 UUID:

bin/kafka-storage.sh random-uuid

我们这里记录下这个 ID 以备用。

这个集群 ID 事实上是一个长度 16 位的字符串通过 Base64 编码后得来的,因此你也可以不使用上述命令,直接自定义一个 16 位长度的纯英文和数字组成的字符串,然后将这个字符串编码为 Base64 格式作为这个集群 ID 也可以。可以使用菜鸟工具中的在线 Base64 编码工具。

然后在上述三台虚拟机中,都使用终端进入 Kafka 目录后,执行下列命令:

bin/kafka-storage.sh format -t 生成的集群ID -c config/kraft/server.properties

这样,三个 Kafka 节点都使用了这一个 ID 完成了集群元数据配置,表示这三个 Kafka 节点构成一个集群。

3.4.3、启动 Kafka

同样地,在三台虚拟机中,都使用终端进入 Kafka 目录后,执行下列命令:

bin/kafka-server-start.sh config/kraft/server.properties

三台虚拟机全部启动后,这个集群才启动完毕。可见集群节点之间可以互相通信。

无论是在虚拟机还是服务器上,都要保证90929093端口开放,且所有虚拟机 / 服务器之间都能够两两互相访问(网络连通)!

四、window 安装

1、 下载安装包

  • 下载kafka 地址,其中官方版内置zk, kafka_2.12-3.4.0.tgz
  • 其中这个名称的意思是 kafka3.4.0 版本 ,所用语言 scala 版本为 2.12
    kafka各种环境安装(window,linux,docker,k8s),包含KRaft模式,MQ,kafka

2、后续window的安装都是使用的是window目录下的命令,因为是window环境

4.1、Kafka with ZooKeeper 单节点

4.1.1、安装配置

1、解压刚刚下载的配置文件,解压后如下,其中 datakafka-logs 这两个文件是没有的

  • data目录是zookeeper的数据存储目录
  • kafka-logs目录是kafka的数据存储目录

kafka各种环境安装(window,linux,docker,k8s),包含KRaft模式,MQ,kafka

2、修改配置:进入到config目录,

  • 修改service.properties里面log.dirs路径未 log.dirs=F:\kafka\installSurround\kafka3.4.0\kafka-logs,该目录是kafka的数据存储目录

kafka各种环境安装(window,linux,docker,k8s),包含KRaft模式,MQ,kafka

  • 修改zookeeper.properties里面dataDir路径为 dataDir=F:\kafka\installSurround\kafka3.4.0\data,该目录是 zookeeper存储的kafka的数据目录
    kafka各种环境安装(window,linux,docker,k8s),包含KRaft模式,MQ,kafka

3、server.properties说明

属性 说明
log.dirs 指定Broker需要使用的若干个文件目录路径,没有默认值,必须指定。在生产环境中一定要为log.dirs配置多个路径,如果条件允许,需要保证目录被挂载到不同的物理磁盘上。优势在于,提升读写性能,多块物理磁盘同时读写数据具有更高的吞吐量;能够实现故障转移(Failover),Kafka 1.1版本引入Failover功能,坏掉磁盘上的数据会自动地转移到其它正常的磁盘上,而且Broker还能正常工作,基于Failover机制,Kafka可以舍弃RAID方案。
zookeeper.connect CS格式参数,可以指定值为zk1:2181,zk2:2181,zk3:2181,不同Kafka集群可以指定:zk1:2181,zk2:2181,zk3:2181/kafka1,chroot只需要写一次。
listeners 设置内网访问Kafka服务的监听器。
advertised.listeners 设置外网访问Kafka服务的监听器。
auto.create.topics.enable 是否允许自动创建Topic。
unclean.leader.election.enable 是否允许Unclean Leader 选举。
auto.leader.rebalance.enable 是否允许定期进行Leader选举,生产环境中建议设置成false。
log.retention.{hours minutes
log.retention.bytes 指定Broker为消息保存的总磁盘容量大小。message.max.bytes:控制Broker能够接收的最大消息大小。

4.1.2、启动

1、 启动脚本都在bin目录的window目录下,一定要先启动 zookeeper,再启动kafka

如果是linux,不使用window下的命令即可,使用对应的 xxxx.sh 即可

kafka各种环境安装(window,linux,docker,k8s),包含KRaft模式,MQ,kafka

2、首先启动zookeeper

.\bin\windows\zookeeper-server-start.bat .\config\zookeeper.properties

kafka各种环境安装(window,linux,docker,k8s),包含KRaft模式,MQ,kafka

3、在启动kafka

.\bin\windows\kafka-server-start.bat .\config\server.properties

kafka各种环境安装(window,linux,docker,k8s),包含KRaft模式,MQ,kafka

4.1、Kafka with KRaft 单节点(存在问题,建议跳过)

4.1.1、安装配置

1、解压刚刚下载的配置文件,解压后如下,其中kafka-kraft-logs这个文件是没有的

  • kafka-kraft-logs 这个文件用于存储kafka的数据
    kafka各种环境安装(window,linux,docker,k8s),包含KRaft模式,MQ,kafka

2、修改配置:进入到config\kraft目录,

  • 修改service.properties里面log.dirs路径未 log.dirs=F:\kafk\installSurroundkafka_2.12-3.4.0\kafka-kraft-logs,该目录是kafka的kraft模式下的数据存储目录

kafka各种环境安装(window,linux,docker,k8s),包含KRaft模式,MQ,kafka

kafka各种环境安装(window,linux,docker,k8s),包含KRaft模式,MQ,kafka

4.1.2、启动

1、 启动脚本都在bin目录的window目录下

如果是linux,不使用window下的命令即可,使用对应的 xxxx.sh 即可

kafka各种环境安装(window,linux,docker,k8s),包含KRaft模式,MQ,kafka

2、生成集群id,并格式化存储目录

.\bin\windows\kafka-storage.bat random-uuid
.\bin\windows\kafka-storage.bat format -t xxx(换成你上面的那个命令的输出结果)-c .\config\kraft\server.properties

kafka各种环境安装(window,linux,docker,k8s),包含KRaft模式,MQ,kafka

3、在执行完成上面的命令后,可以看到我们的数据存储目录,多两个文件,如下
kafka各种环境安装(window,linux,docker,k8s),包含KRaft模式,MQ,kafka

3、启动后,回发现抱错,目前在网上了解到,window下,kafka的kraft模式还有点问题,暂无解决方案

.\bin\windows\kafka-server-start.bat  .\config\kraft\server.properties

kafka各种环境安装(window,linux,docker,k8s),包含KRaft模式,MQ,kafka

五、docker 安装

5.1、前言说明

1、这里使用镜像 都使用 bitnami下的

我看网上很多都是使用的 wurstmeister 下的镜像,但是我发现他的镜像已经一年没有更新了,所以不选择它了

kafka各种环境安装(window,linux,docker,k8s),包含KRaft模式,MQ,kafka

kafka各种环境安装(window,linux,docker,k8s),包含KRaft模式,MQ,kafka

2、因为参数很多,为了方便,我们直接使用 docker-compose 来创建,这样后续更新的时候也比较的方便,直接修改对应的docker-compose.yml文件即可.

3、在docker hubbitnami/kafaka 总览页面已经给出了配置,如下

kafka各种环境安装(window,linux,docker,k8s),包含KRaft模式,MQ,kafka

4、在启动kafka时的一些参数说明,这些参数都在 bitnami/kafkadocker-hub首页上面有的,挺重要的

属性 说明
KAFKA_CERTIFICATE_PASSWORD 证书的密码。没有默认值。
KAFKA_HEAP_OPTS Apache Kafka 的 Java 堆大小。默认值:-Xmx1024m -Xms1024m。
KAFKA_ZOOKEEPER_PROTOCOL Zookeeper 连接的身份验证协议。允许的协议:PLAINTEXT、SASL、SSL和SASL_SSL。默认值:纯文本。
KAFKA_ZOOKEEPER_USER 用于 SASL 身份验证的 Apache Kafka Zookeeper 用户。没有默认值。
KAFKA_ZOOKEEPER_PASSWORD 用于 SASL 身份验证的 Apache Kafka Zookeeper 用户密码。没有默认值。
KAFKA_ZOOKEEPER_TLS_KEYSTORE_PASSWORD Apache Kafka Zookeeper密钥库文件密码和密钥密码。没有默认值。
KAFKA_ZOOKEEPER_TLS_TRUSTSTORE_PASSWORD Apache Kafka Zookeeper 信任库文件密码。没有默认值。
KAFKA_ZOOKEEPER_TLS_VERIFY_HOSTNAME 验证 TLS 证书上的 Zookeeper 主机名。默认值:true。
KAFKA_ZOOKEEPER_TLS_TYPE 选择要使用的 TLS 证书格式。允许值:JKS, PEM. 默认值:JKS。
KAFKA_CFG_LISTENERS K afkalisteners配置覆盖。没有默认值。
KAFKA_CFG_ADVERTISED_LISTENERS Kafkaadvertised.listeners配置覆盖。没有默认值。
KAFKA_CFG_SASL_ENABLED_MECHANISMS 将 SASL 用于客户端、代理间或 Zookeeper 通信时允许的机制。允许的值:PLAIN、SCRAM-SHA-256或SCRAM-SHA-512这些值的逗号分隔组合。默认值:PLAIN、SCRAM-SHA-256、SCRAM-SHA-512。注意:KRaft <= 3.4 尚不支持 SCRAM 机制,因此此列表将自动缩减为仅PLAINSASL 机制。
KAFKA_TLS_CLIENT_AUTH 设置 的值ssl.client.auth。允许值:required, requested, none. 默认值:必填。
KAFKA_TLS_<uppercase_listener_name>_CLIENT_AUTHlistener.name..ssl.client.auth 设置用于通过 SASL 配置 mTLS的值。允许值:required, requested, none.
KAFKA_TLS_TYPE 选择要使用的 TLS 证书格式。允许值:JKS, PEM. 默认值:JKS。
KAFKA_CLIENT_USERS 使用 SASL 进行客户端通信时将在 Zookeeper 中创建的用户。被逗号隔开。默认:用户
KAFKA_CLIENT_PASSWORDS 在 处指定的用户的密码KAFKA_CLIENT_USERS。被逗号隔开。默认值:bitnami
KAFKA_CFG_MAX_PARTITION_FETCH_BYTES 服务器将返回的每个分区的最大数据量。没有默认值。
KAFKA_CFG_MAX_REQUEST_SIZE 请求的最大大小(以字节为单位)。没有默认值。
KAFKA_CFG_SASL_MECHANISM_INTER_BROKER_PROTOCOL 用于代理间通信的 SASL 机制。没有默认值。注意:KRaft <= 3.4 尚不支持 SCRAM 机制,因此 KRaft 模式下唯一支持的 SASL 机制是PLAIN.
KAFKA_INTER_BROKER_USER pache Kafka 代理间通信用户。默认值:用户。
KAFKA_INTER_BROKER_PASSWORD Apache Kafka 代理间通信密码。默认值:bitnami。
KAFKA_CFG_SASL_MECHANISM_CONTROLLER_PROTOCOL 用于控制器通信的 SASL 机制。没有默认值。注意:KRaft <= 3.4 尚不支持 SCRAM 机制,因此 KRaft 模式下唯一支持的 SASL 机制是PLAIN.
KAFKA_CONTROLLER_USER Apache Kafka 控制器通信用户。默认值:controller_user。
KAFKA_CONTROLLER_PASSWORD Apache Kafka控制器通信密码。默认值:bitnami。
KAFKA_CFG_PROCESS_ROLES KRaft 模式下运行时的节点角色。没有默认值。
KAFKA_CFG_NODE_ID 唯一的节点id,在KRaft模式下运行时需要。没有默认值。
KAFKA_CFG_CONTROLLER_QUORUM_VOTERS 以逗号分隔的 {id}@{host}:{port} 条目列表中的控制器仲裁投票者集的 id/端点信息映射。没有默认值。
KAFKA_RAFT_CLUSTER_ID 使用Kafka Raft(KRaft)时的Kafka集群ID。没有默认值

5、如果你准备尝试实验多种情况下的部署,记得把之前的容器删除掉,并删除对应的挂载目录

# 删除容器
docker-compose -f xxxxx.yml down -v
# 删除宿主机挂载目录
rm -rf /data/docker/kafka

5.2、使用zookeeper单机安装

5.2.1、安装流程

1、先创建宿主机挂载目录,如下

授权当前的两个目录,为什么,后面会说 或者 授权(chown 777 zookeeper chown 777 kafka )

可以看看这篇文章 How to fix bitnami mariadb ‘mkdir: cannot create directory ‘/bitnami/mariadb’: Permission denied’

mkdir -p /data/docker/kafka/{kafka_data,zookeeper_data}
chown -R 1001:1001 /data/docker/kafka/kafka_data
chown -R 1001:1001 /data/docker/kafka/zookeeper_data

kafka各种环境安装(window,linux,docker,k8s),包含KRaft模式,MQ,kafka

2、将上述配置文件copy 一下,最后修改如下,注意其中的宿主机ip

cd /opt/kafka/
vim kafka-single-with-zookeeper.yml

3、运行结果,其中zookeeper和kafka的镜像我已经提前下载好了,所以没有显示

docker-compose -f kafka-single-with-zookeeper.yml  up -d 

4、访问 web-ui,如下

http://192.168.173.129:8080/

5.2.2、可能会出现的问题

1、如果前面没有授权存储数据目录,会出现一个权限问题,日志如下

kafka各种环境安装(window,linux,docker,k8s),包含KRaft模式,MQ,kafka
1、如果要解决上述的问题,需要为挂载目录./zookeeper授权,开发环境中推荐各位小伙伴为挂载目录授最高权限777;生产环境需要查看官网文档,结合实际生产环境进行授权

可以看看这篇文章 How to fix bitnami mariadb ‘mkdir: cannot create directory ‘/bitnami/mariadb’: Permission denied’

chmod 777 kafka
chmod 777 zookeeper

2、删除之前的数据,重新创建

docker-compose -f kafka-cluster.yml down -v
docker-compose -f kafka-cluster.yml up -d

kafka各种环境安装(window,linux,docker,k8s),包含KRaft模式,MQ,kafka

5.3、使用zookeeper集群安装

暂略文章来源地址https://www.toymoban.com/news/detail-692404.html

5.4、使用 KRaft 模式单机安装

0、如果安装过上面的教程,记得先删除之前挂载的目录,不然容易和下面创建的目录冲突

1、先创建宿主机挂载目录,如下

授权当前的两个目录,为什么,后面会说 或者 授权(chown 777 kafka )

可以看看这篇文章 How to fix bitnami mariadb ‘mkdir: cannot create directory ‘/bitnami/mariadb’: Permission denied’

# kafka的挂载
mkdir -p /data/docker/kafka/kafka_data
chown -R 1001:1001 /data/docker/kafka/kafka_data

# kafka-ui 的挂载
mkdir -p /data/docker/kafka/kafka-ui
touch  /data/docker/kafka/kafka-ui/config.yml

kafka各种环境安装(window,linux,docker,k8s),包含KRaft模式,MQ,kafka

2、将上述配置文件copy 一下,最后修改如下,注意替换其中的宿主机ip

cd /opt/kafka/
vim kafka-KRaft-single.yml
# 宿主机IP: 192.168.173.129
version: "3"

services:
  kafka:
    image: 'bitnami/kafka:3.4.0'
    container_name: kafka
    ports:
      - '9092:9092'
      - '9093:9093'
    restart: always
    environment:
      - KAFKA_CFG_PROCESS_ROLES=broker,controller         # 节点角色
      - KAFKA_CFG_CONTROLLER_LISTENER_NAMES=CONTROLLER
      - KAFKA_CFG_LISTENERS=PLAINTEXT://:9092,CONTROLLER://:9093   # 定义kafka服务端socket监听端口(Docker内部的ip地址和端口)
      - KAFKA_CFG_LISTENER_SECURITY_PROTOCOL_MAP=CONTROLLER:PLAINTEXT,PLAINTEXT:PLAINTEXT  # 定义安全协议
      - KAFKA_CFG_ADVERTISED_LISTENERS=PLAINTEXT://192.168.173.129:9092  # 定义外网访问地址(宿主机ip地址和端口),填写宿主机IP地址
      - KAFKA_CFG_NODE_ID=1
      - KAFKA_HEAP_OPTS=-Xmx1024m -Xms1024m    # 堆内存
      - KAFKA_CFG_CONTROLLER_QUORUM_VOTERS=1@kafka:9093  # 格式 NODE_ID1@host1:port1,NODE_ID2@host2:port2  这个地方值等价于  1@127.0.0.1:9093
      - ALLOW_PLAINTEXT_LISTENER=yes
    volumes:
      - "/data/docker/kafka/kafka_data:/bitnami"
    networks:
      kafka:
        aliases:
          - kafka
 
  kafka-ui:
    image: provectuslabs/kafka-ui:master
    container_name: kafka-ui
    ports:
      - "8080:8080"
    restart: always
    environment:
      - KAFKA_CLUSTERS_0_NAME=local  # 当前这个kafka 集群的名称,也可以后面我们登录ui页面手动点击按钮创建,如果有多个可以配置 KAFKA_CLUSTERS_1_NAME   KAFKA_CLUSTERS_2_NAME
      - KAFKA_CLUSTERS_0_BOOTSTRAPSERVERS=kafka:9092  # local 这个集群的kafka地址, 如果有多个可以配置 KAFKA_CLUSTERS_1_BOOTSTRAPSERVERS  KAFKA_CLUSTERS_2_BOOTSTRAPSERVERS
      - DYNAMIC_CONFIG_ENABLED=true  # 默认 kafka-ui 是不允许在运行期间修改的,我们设置为true,可以方便我们在开发的时候,通过ui页面增加,删除,修改kafka的集群信息,比如创建topic,创建分区等等
      #- SERVER_SERVLET_CONTEXT_PATH: /kafkaui   # 访问ui的前缀,不写默认是 http://192.168.173.129:8080/ ,写了就是 http://192.168.173.129:8080/kafkaui  
      - AUTH_TYPE=LOGIN_FORM   # 启用表单登录授权
      - SPRING_SECURITY_USER_NAME=admin   # 启用表单登录授权的账号
      - SPRING_SECURITY_USER_PASSWORD=admin # 启用表单登录授权的密码
    depends_on:
      - kafka
    volumes:
      - /data/docker/kafka/kafka-ui/config.yml:/etc/kafkaui/dynamic_config.yaml  # Kafka-ui本质上是一个无状态的应用程序,因此,当你在运行时编辑配置时,它会将添加的配置存储在容器的文件系统中(在dynamic_config中)。yaml文件)。动态配置文件将在每次配置提交时被覆盖。注意,如果容器被重新创建,你编辑的(和上传的)文件将不存在,应用程序将只以静态配置启动。如果你想保留向导创建的配置,你必须将相同的文件挂载/复制到新创建的kafka-ui容器中(默认情况下,整个/etc/kafkaui/文件夹)。属性,指定动态配置文件将持久化的位置。
    networks:
      kafka:
        aliases:
          - kafka-ui

networks:
  kafka:
    driver: bridge

3、运行结果,其中zookeeper和kafka的镜像我已经提前下载好了,所以没有显示

docker-compose -f kafka-KRaft-single.yml up -d 

kafka各种环境安装(window,linux,docker,k8s),包含KRaft模式,MQ,kafka

4、访问 web-ui,账号密码 admin admin ,这个配置大家可以访问 github 去官方网站查看文档,说的还是很详细的 github-kafka-ui

http://192.168.173.129:8080/

kafka各种环境安装(window,linux,docker,k8s),包含KRaft模式,MQ,kafka

5、创建一个 topic 并发送两条数据测试一下,我是在window端链接,如下

bin\windows\kafka-topics.bat  --bootstrap-server 192.168.173.129:9092 --create --partitions 3 --replication-factor 1 --topic first201

kafka各种环境安装(window,linux,docker,k8s),包含KRaft模式,MQ,kafka
kafka各种环境安装(window,linux,docker,k8s),包含KRaft模式,MQ,kafka

6、查看消费端是否有数据(可以先启动)

bin\windows\kafka-console-consumer.bat  --bootstrap-server 192.168.173.129:9092 --topic first201

kafka各种环境安装(window,linux,docker,k8s),包含KRaft模式,MQ,kafka

5.5、使用KRaft集群安装

0、如果安装过上面的教程,记得先删除之前挂载的目录,不然容易和下面创建的目录冲突

1、先创建宿主机挂载目录,如下

授权当前的两个目录,为什么,后面会说 或者 授权(chown 777 kafka* )

可以看看这篇文章 How to fix bitnami mariadb ‘mkdir: cannot create directory ‘/bitnami/mariadb’: Permission denied’

# kafka的挂载
mkdir -p /data/docker/kafka/{kafka1_data,kafka2_data,kafka3_data}
chown -R 1001:1001 /data/docker/kafka/kafka*

# kafka-ui 的挂载
mkdir -p /data/docker/kafka/kafka-ui
touch  /data/docker/kafka/kafka-ui/config.yml

kafka各种环境安装(window,linux,docker,k8s),包含KRaft模式,MQ,kafka

2、将上述配置文件copy 一下,最后修改如下,注意替换其中的宿主机ip

cd /opt/kafka/
vim kafka-KRaft-cluster.yml

# 宿主机IP: 192.168.173.129
version: "3"

services:
  kafka1:
    image: 'bitnami/kafka:3.4.0'
    container_name: kafka1
    environment:
      - KAFKA_HEAP_OPTS=-Xmx1024m -Xms1024m   # 堆内存
      - KAFKA_CFG_PROCESS_ROLES=broker,controller  # 节点角色
      - KAFKA_CFG_CONTROLLER_LISTENER_NAMES=CONTROLLER
      - KAFKA_CFG_LISTENERS=PLAINTEXT://:9092,CONTROLLER://:9093   # 定义kafka服务端socket监听端口(Docker内部的ip地址和端口)
      - KAFKA_CFG_LISTENER_SECURITY_PROTOCOL_MAP=CONTROLLER:PLAINTEXT,PLAINTEXT:PLAINTEXT  # 定义安全协议
      - KAFKA_CFG_ADVERTISED_LISTENERS=PLAINTEXT://192.168.173.129:19092  # 定义外网访问地址(宿主机ip地址和端口),填写宿主机IP地址
      - KAFKA_CFG_NODE_ID=1
      - KAFKA_KRAFT_CLUSTER_ID=jkUlhzQmQkic54LMxrB1oV
      - KAFKA_CFG_CONTROLLER_QUORUM_VOTERS=1@kafka1:9093,2@kafka2:9093,3@kafka3:9093
      - ALLOW_PLAINTEXT_LISTENER=yes
    volumes:
      - "/data/docker/kafka/kafka1_data:/bitnami"
    ports:
      - "19092:9092"
    restart: always
    networks:
      kafka:
        aliases:
          - kafka1
          
  kafka2:
    image: 'bitnami/kafka:3.4.0'
    container_name: kafka2
    environment:
      - KAFKA_HEAP_OPTS=-Xmx1024m -Xms1024m
      - KAFKA_CFG_PROCESS_ROLES=broker,controller
      - KAFKA_CFG_CONTROLLER_LISTENER_NAMES=CONTROLLER
      - KAFKA_CFG_LISTENERS=PLAINTEXT://:9092,CONTROLLER://:9093
      - KAFKA_CFG_LISTENER_SECURITY_PROTOCOL_MAP=CONTROLLER:PLAINTEXT,PLAINTEXT:PLAINTEXT
      - KAFKA_CFG_ADVERTISED_LISTENERS=PLAINTEXT://192.168.173.129:29092 
      - KAFKA_CFG_NODE_ID=2
      - KAFKA_KRAFT_CLUSTER_ID=jkUlhzQmQkic54LMxrB1oV
      - KAFKA_CFG_CONTROLLER_QUORUM_VOTERS=1@kafka1:9093,2@kafka2:9093,3@kafka3:9093
      - ALLOW_PLAINTEXT_LISTENER=yes
    volumes:
      - "/data/docker/kafka/kafka2_data:/bitnami"
    ports:
      - "29092:9092"
    restart: always
    networks:
      kafka:
        aliases:
          - kafka2

  kafka3:
    image: 'bitnami/kafka:3.4.0'
    container_name: kafka3
    environment:
      - KAFKA_HEAP_OPTS=-Xmx1024m -Xms1024m
      - KAFKA_CFG_PROCESS_ROLES=broker,controller
      - KAFKA_CFG_CONTROLLER_LISTENER_NAMES=CONTROLLER
      - KAFKA_CFG_LISTENERS=PLAINTEXT://:9092,CONTROLLER://:9093
      - KAFKA_CFG_LISTENER_SECURITY_PROTOCOL_MAP=CONTROLLER:PLAINTEXT,PLAINTEXT:PLAINTEXT
      - KAFKA_CFG_ADVERTISED_LISTENERS=PLAINTEXT://192.168.173.129:39092  
      - KAFKA_CFG_NODE_ID=3
      - KAFKA_KRAFT_CLUSTER_ID=jkUlhzQmQkic54LMxrB1oV
      - KAFKA_CFG_CONTROLLER_QUORUM_VOTERS=1@kafka1:9093,2@kafka2:9093,3@kafka3:9093
      - ALLOW_PLAINTEXT_LISTENER=yes
    volumes:
      - "/data/docker/kafka/kafka3_data:/bitnami"
    ports:
      - "39092:9092"
    restart: always
    networks:
      kafka:
        aliases:
          - kafka3

  kafka-ui:
    image: provectuslabs/kafka-ui:master
    container_name: kafka-ui
    ports:
      - "8080:8080"
    restart: always
    environment:
      - KAFKA_CLUSTERS_0_NAME=local  # 当前这个kafka 集群的名称,也可以后面我们登录ui页面手动点击按钮创建,如果有多个可以配置 KAFKA_CLUSTERS_1_NAME   KAFKA_CLUSTERS_2_NAME  我们这里kafka1 kafka2 kafka3 是一个集群,我们写其中一个节点就行,因为上面配置kafka的时候告诉了其它节点的位置
      - KAFKA_CLUSTERS_0_BOOTSTRAPSERVERS=kafka1:9092  # local 这个集群的kafka地址, 如果有多个可以配置 KAFKA_CLUSTERS_1_BOOTSTRAPSERVERS  KAFKA_CLUSTERS_2_BOOTSTRAPSERVERS
      - DYNAMIC_CONFIG_ENABLED=true  # 默认 kafka-ui 是不允许在运行期间修改的,我们设置为true,可以方便我们在开发的时候,通过ui页面增加,删除,修改kafka的集群信息,比如创建topic,创建分区等等
      #- SERVER_SERVLET_CONTEXT_PATH: /kafkaui   # 访问ui的前缀,不写默认是 http://192.168.173.129:8080/ ,写了就是 http://192.168.173.129:8080/kafkaui  
      - AUTH_TYPE=LOGIN_FORM   # 启用表单登录授权
      - SPRING_SECURITY_USER_NAME=admin   # 启用表单登录授权的账号
      - SPRING_SECURITY_USER_PASSWORD=admin # 启用表单登录授权的密码
    depends_on:
      - kafka1
      - kafka2
      - kafka3
    volumes:
      - /data/docker/kafka/kafka-ui/config.yml:/etc/kafkaui/dynamic_config.yaml  # Kafka-ui本质上是一个无状态的应用程序,因此,当你在运行时编辑配置时,它会将添加的配置存储在容器的文件系统中(在dynamic_config中)。yaml文件)。动态配置文件将在每次配置提交时被覆盖。注意,如果容器被重新创建,你编辑的(和上传的)文件将不存在,应用程序将只以静态配置启动。如果你想保留向导创建的配置,你必须将相同的文件挂载/复制到新创建的kafka-ui容器中(默认情况下,整个/etc/kafkaui/文件夹)。属性,指定动态配置文件将持久化的位置。
    networks:
      kafka:
        aliases:
          - kafka-ui

networks:
  kafka:
    driver: bridge


3、运行结果,其中zookeeper和kafka的镜像我已经提前下载好了,所以没有显示

docker-compose -f kafka-KRaft-cluster.yml up -d 

kafka各种环境安装(window,linux,docker,k8s),包含KRaft模式,MQ,kafka

4、访问 web-ui,账号密码 admin admin 如下

http://192.168.173.129:8080/

kafka各种环境安装(window,linux,docker,k8s),包含KRaft模式,MQ,kafka

5、创建一个 topic 我是在window端链接,如下

bin\windows\kafka-topics.bat  --bootstrap-server 192.168.173.129:19092 --create --partitions 3 --replication-factor 3 --topic first202

kafka各种环境安装(window,linux,docker,k8s),包含KRaft模式,MQ,kafka

6、监听消息

bin\windows\kafka-console-consumer.bat  --bootstrap-server 192.168.173.129:19092 --topic first202

kafka各种环境安装(window,linux,docker,k8s),包含KRaft模式,MQ,kafka

7、发送消息,查看消费端有无消息输出

bin\windows\kafka-console-producer.bat  --bootstrap-server 192.168.173.129:19092 --topic first202

kafka各种环境安装(window,linux,docker,k8s),包含KRaft模式,MQ,kafka

kafka各种环境安装(window,linux,docker,k8s),包含KRaft模式,MQ,kafka

六、k8s 安装

暂略

到了这里,关于kafka各种环境安装(window,linux,docker,k8s),包含KRaft模式的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • (详细步骤+各项报错处理)windows11 安装Docker和部署K8S单节点(minikube)

    (1)win11系统(win10应该也可以,但没试过) (2)保证cpu虚拟化开启 (3)主机要留有一定的内存 满足以上即可安装docker desktop版本 (1)获取Docker Desktop并安装Download For Windows(使用了WSL2技术,直接可以在windows上运行,不需要额外的虚拟化环境) (2)开始安装,按照安装向

    2024年02月03日
    浏览(40)
  • 基于Centos:服务器基础环境安装: JDK、Maven、Python、Go、Docker、K8s

    创建用户 首先设置hostname 和hosts文件 配置防火墙和网络 安装kubeadm 主节点初始化 主节点安装网络插件 从节点执行主节点初始化完成后输出的token信息加入主节点即可;

    2024年02月12日
    浏览(48)
  • K8S容器内安装cur/telnet命令(Alpine Linux离线环境安装curl/telnet或其他工具)

    需求: 微服务的基础是镜像,通常在最小化的Linux镜像中安装jdk,然后运行编译好的java程序。将镜像运行到K8S上就得到了微服务Pod,Pod通常使用安装K8S时配置的私有网段,与宿主机不同。 很多时候需要排查从Pod网段内访问K8S宿主机网段、其它外部Linux网段或域名接口等等,需

    2024年02月04日
    浏览(39)
  • 【k8s】【ELK】【zookeeper+kafka+efak】【一】日志环境部署

    如何收集日志 使用 EFK+Logstash+Kafka 收集K8S哪些日志? 2.1 ES集群的构建 demo: 2.2 交付ES-Service 01-es-svc.yaml 2.3 交付ES-Master节点 2.4交付ES-Data节点 2.5 验证ES集群 3.1 交付Kibana(dp、svc、ingress) 01-kibana-dp.yam 02-kibana-svc.yam 03-kibana-ingress.yam 3.2 访问kibana 01-zk-svc.yaml 02-zk-sts.yaml 验证zk集群

    2024年02月07日
    浏览(41)
  • Windows搭建docker+k8s

    从官网下载,然后直接安装即可,过程很简单,一直Next就行。 有一点需要注意就是要看好对应的版本,因为后边涉及到版本的问题。 https://www.docker.com/products/docker-desktop 安装完成,双击图标,打开桌面程序,就可以看到左下角有一个绿色的鲸鱼标识,注意,这个时候只有一

    2024年02月19日
    浏览(37)
  • 一.安装k8s环境

    默认3台服务器都执行 基础软件需要在三台服务器都执行  在这里,我们将向您介绍Docker的安装方法。但首先,我们需要先安装依赖包。您需要通过使用以下命令安装一些基本软件: yum install -y yum-utils device-mapper-persistent-data lvm2 然后,您可以使用以下命令来安装Docker: sudo

    2024年02月15日
    浏览(31)
  • Windows11下安装k8s

    1、基于Docker Desktop安装即可 下载地址 2、开启  ①、开启Hyper-V(Windows10比较容易,本文基于Windows11)  ②、安装WSL2内核(Windows上运行Linux,支持Docker) 安装方法 3、直接点击下载的文件安装即可 配置镜像加速器,这里使用阿里云的  界面修改        K8s是一个架构良好的分布式系

    2024年01月21日
    浏览(43)
  • docker和k8s、nginx、rpc、kafka的学习介绍和实战以及学习理念

    中间件为什么学?如何学?如何成为一个优秀的程序员? 我觉得优秀程序员要满足两点:1.扎实的编程语言基础数据结构基础,要能实现各种基本的crud需求,这是基础;2、就是了解工程上需要了解的知识,编程是一个系统性的工程。各个公司有自己的代码框架差异很大暂不讨

    2024年02月15日
    浏览(39)
  • k8s集群环境搭建以及插件安装

    终端工具MobaXterm很好用。 1、虚拟机三台(ip按自己的网络环境相应配置)(master/node) 节点 ip k8s-master 192.168.200.150 k8s-node1 192.168.200.151 k8s-node2 192.168.200.152 2、关闭防火墙(master/node) 查看防火墙状态: systemctl status firewalld 3、关闭selinux(master/node) 4、关闭swap(master/node) 5、添加主机名

    2024年01月22日
    浏览(45)
  • docker desktop安装K8S

    摘抄这个,因为这个有些不全 导致走了一些弯路 国外特别的慢 代码如下(示例): 勾选并点击restart 等一段时间,呈现上面的样子。在列表中会有很多k8s的pod 注意 :有时连接不到raw.githubusercontent.com 查找IP 配置hosts,在末尾加一行 中间有空格 随便找个地方创建dashbord.yml 执行

    2024年02月06日
    浏览(41)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包