深入解读Kafka:如何进行运维与监控,实现性能调优和故障排除

这篇具有很好参考价值的文章主要介绍了深入解读Kafka:如何进行运维与监控,实现性能调优和故障排除。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

Kafka运维与监控

一、简介

Kafka是由Apache Software Foundation开发的一款分布式流处理平台和消息队列系统
可以处理大规模的实时数据流,具有高吞吐量、低延迟、持久性和可扩展性等优点
常用于数据架构、数据管道、日志聚合、事件驱动等场景,对Kafka的运维和监控十分必要
本文旨在介绍Kafka的运维和监控相关内容

二、运维

1.安装和部署

安装

在官网下载 Kafka 源码包,并解压到指定路径
配置环境变量、内存和文件描述符等参数

# 从Apache官网下载Kafka最新版本(latest.gz)文件到本地
wget http://apache.com/kafka/latest.gz
# 解压缩 Kafka 压缩包(tar -xzf kafka-latest.gz)
tar -xzf kafka-latest.gz
# 将解压缩后的文件夹kafka-x.x.x移动到/usr/local/kafka/目录下
mv kafka-x.x.x /usr/local/kafka/
# 设置KAFKA_HOME环境变量为/usr/local/kafka
export KAFKA_HOME=/usr/local/kafka
# 将Kafka的bin目录添加到PATH环境变量中,方便后续使用Kafka命令
export PATH="$PATH:$KAFKA_HOME/bin"

部署

根据业务需求决定Kafka的部署方式,当前提供三种部署模式:单机部署、分布式部署和容器化部署,需要根据具体业务场景和要求来进行选择
在生产环境中部署 Kafka 还需要考虑高可用和容错等问题

2.优化参数配置

配置文件

Kafka的配置文件为 config/server.properties,可以在此文件中进行 Kafka 的基础配置,例如端口、日志目录、Zookeeper 信息和 Broker ID 等。

您还可以自定义配置文件和属性,通过指定 -D 参数来加载。例如:

# 启动脚本命令,其中参数 -daemon 代表以守护进程方式启动,config/server.properties 指定Kafka的配置文件路径,-Dname=mykafka 指定Kafka进程的名称为 mykafka
bin/kafka-server-start.sh -daemon config/server.properties -Dname=mykafka -Dlog.dirs=/home/kafka/logs/
高级配置

在生产环境中为了获得更好的性能和稳定性,需要进行高级配置调优
这样可以更好地适应不同的业务场景和负载压力以下是一些需要注意的配置项:

分区和副本设置
分区数量设置

分区的数量可以通过 num.partitions 参数设置,不同的业务场景可能需要不同的分区数。通常情况下每个分区的大小建议不要超过1GB,否则可能会影响读写性能

副本数量设置

Kafka副本数的设置需要考虑到数据可靠性和容错性。副本数可以通过 replication.factor 参数设置,建议设置为大于等于2,以保证数据的可靠性。对于需要更高容错性的生产环境,可以将副本数设置为大于等于3,这样即使有一台 Broker 故障也不会影响数据可用性

网络参数调优
传输机制设置

Kafka支持两种传输机制:plaintext 和 SSL/TLS。如果希望数据传输更加安全可以使用 SSL/TLS 传输机制。但需要注意的是使用 SSL/TLS 会增加 CPU 的负载

连接数和缓冲区大小设置

在处理高负载的情况下Kafka Broker可能会遇到连接数和缓冲区大小的限制,这会导致发送和接收消息的性能下降。可以通过修改 max.connectionssocket.send.buffer.bytes/socket.receive.buffer.bytes 参数来优化连接数和缓冲区大小

消息压缩和传输设置
消息压缩设置

Kafka支持多种压缩算法可以通过 compression.type 参数设置。不同的压缩算法适用于不同类型的消息,需要根据具体业务场景进行调优。

消息传输设置

Kafk 的消息传输可以通过 max.message.bytes 参数来限制消息的大小。如果需要处理大量的大型消息可以通过修改该参数来提高性能

磁盘设置和文件系统分区
磁盘容量和性能设置

Kafka存储数据需要占用磁盘空间为了确保消息持久化建议设置合理的磁盘容量大小,并使用高效的 SSD硬盘来提高性能

文件系统分区设置

将Kafka存储在单独的文件系统分区中可以提高磁盘读写性能。如果使用多个分区,应该将 Broker 的日志文件平均分配到每个分区中以避免出现磁盘空间不足的情况

监控和热插拔
监控设置

为了更好地监控 Kafka 的运行情况需要设置正确的监控参数。可以通过修改 log.dirs 参数来指定Broker 的日志目录,并设置正确的日志滚动策略。

热插拔设置

Kafka支持热插拔可以在运行时添加或删除Broker,以适应不同的业务需求和负载压力。在添加或删除 Broker时,需要注意保证数据的可靠性和一致性

// 以下是一些常用的 Kafka 配置参数示例

// 分区数量
Properties props = new Properties();
props.put("num.partitions", "3");

// 副本数量
props.put("replication.factor", "2");

// SSL/TLS 传输
props.put("security.protocol", "SSL");
props.put("ssl.truststore.location", "/path/to/truststore");

// 连接数和缓冲区大小
props.put("max.connections", "100");
props.put("socket.send.buffer.bytes", "102400");
props.put("socket.receive.buffer.bytes", "102400");

// 消息压缩
props.put("compression.type", "gzip");

// 消息传输
props.put("max.message.bytes", "100000000");

// 磁盘容量和性能
props.put("log.dirs", "/path/to/kafka/logs");
props.put("log.segment.bytes", "1073741824");
props.put("log.roll.hours", "24");

// 文件系统分区
props.put("log.dirs", "/mnt/kafka1,/mnt/kafka2,/mnt/kafka3");

// 监控和热插拔
props.put("log.retention.ms", "604800000");
props.put("controller.socket.timeout.ms", "30000");

3.数据的备份与恢复

数据备份

Kafka的数据备份包括两种类型:全量备份和增量备份
全量备份是将整个 Kafka 的数据复制到一个不同的地方
增量备份是在全量备份后仅仅备份增量的数据
下面分别介绍两种备份方式:

全量备份
# 指定备份的主题
BACKUP_TOPIC=test

# 指定备份的数据目录
BACKUP_DIR=/tmp/backup

# 创建备份目录
mkdir -p $BACKUP_DIR

# 备份主题数据
kafka-console-consumer.sh \
    --bootstrap-server localhost:9092 \
    --topic $BACKUP_TOPIC \
    --from-beginning \
    > $BACKUP_DIR/$BACKUP_TOPIC.txt

上述代码使用 kafka-console-consumer.sh 工具将主题 $BACKUP_TOPIC 的数据备份到 $BACKUP_DIR 目录下的 $BACKUP_TOPIC.txt 文件中。
注意:该脚本是同步备份会阻塞线程,备份时间较长时,建议使用异步备份方式。

增量备份

增量备份需要借助第三方工具
例如 Kafka 的 MirrorMaker 等实现
下面是 MirrorMaker 的用法示例:

# 指定源和目的地址
SOURCE_HOST=localhost:9092
DESTINATION_HOST=backup-host:9092

# 创建 MirrorMaker 配置文件
cat > /tmp/mirror-maker.properties <<EOF
consumer.bootstrap.servers=$SOURCE_HOST
producer.bootstrap.servers=$DESTINATION_HOST
EOF

# 运行 MirrorMaker
kafka-run-class.sh kafka.tools.MirrorMaker \
    --consumer.config /tmp/mirror-maker.properties \
    --producer.config /tmp/mirror-maker.properties \
    --whitelist $BACKUP_TOPIC

上述代码中创建一个 MirrorMaker 配置文件将源端的数据同步到目标端--whitelist 参数指定备份的主题

数据恢复

下面介绍Kafka数据恢复

全量恢复
# 指定恢复的主题
RESTORE_TOPIC=test

# 指定备份文件路径
BACKUP_FILE=/tmp/backup/$RESTORE_TOPIC.txt

# 恢复主题数据
kafka-console-producer.sh \
    --broker-list localhost:9092 \
    --topic $RESTORE_TOPIC \
    --new-producer \
    < $BACKUP_FILE

上述代码将$BACKUP_FILE 文件中的数据恢复到 $RESTORE_TOPIC 主题中
注意:该脚本也是同步操作,恢复时间较长时建议使用异步操作

增量恢复

增量恢复需要使用 MirrorMaker 来实现,下面是 MirrorMaker 的用法示例:

# 创建MirrorMaker 配置文件
cat > /tmp/mirror-maker.properties <<EOF
consumer.bootstrap.servers=backup-host:9092
producer.bootstrap.servers=localhost:9092
EOF

# 运行MirrorMaker
kafka-run-class.sh kafka.tools.MirrorMaker \
    --consumer.config /tmp/mirror-maker.properties \
    --producer.config /tmp/mirror-maker.properties \
    --whitelist $RESTORE_TOPIC

上述代码中创建一个 MirrorMaker 配置文件将备份端的数据同步到目标端 $RESTORE_TOPIC 主题中
注意:增量恢复会将备份端数据的变化同步到目标端,因此恢复时必须先将备份端数据同步完整

脚本编写(备份和恢复)

下面是一个简单的脚本,用于备份和恢复 Kafka 数据:

#!/bin/bash

function backup_topic() {
    local topic=$1
    local backup_dir=$2

    echo "Starting backup for topic: $topic"

    mkdir -p $backup_dir
    kafka-console-consumer.sh \
        --bootstrap-server localhost:9092 \
        --topic $topic \
        --from-beginning \
        > $backup_dir/$topic.txt

    echo "Backup completed for topic: $topic"
}

function restore_topic() {
    local topic=$1
    local backup_file=$2

    echo "Starting restore for topic: $topic"

    kafka-console-producer.sh \
        --broker-list localhost:9092 \
        --topic $topic \
        --new-producer \
        < $backup_file

    echo "Restore completed for topic: $topic"
}

backup_topic example-topic /tmp/backup
restore_topic example-topic /tmp/backup/example-topic.txt

上述代码中定义了两个函数 backup_topicrestore_topic,分别用于备份和恢复 Kafka 主题数据
在这个脚本中备份的主题是 example-topic,备份数据存储的目录是 /tmp/backup

要恢复数据,请调用 restore_topic 函数,并通过参数指定要恢复的主题和备份文件的路径。在脚本的最后示例恢复了 example-topic 主题的备份数据。

4.性能调优

性能调优指南

Kafka 是一个高吞吐量、低延迟、分布式的消息中间件,但还是有必要进行性能调优以确保其正常运行。下面是一些性能调优的建议:

  • 配置适当的 num.io.threads 参数使每个Kafka实例的网络I/O线程数量与CPU核心数大致相等
  • 调整 max.message.bytesreplica.fetch.max.bytes 参数,以提高 Kafka 的吞吐量和延迟性能
  • 为每个Kafka的分区配置适当数量的ISR (in-sync replicas),避免ISR集合太小而导致消息在网络上的长时间等待
  • 使用SSD硬盘可提高 Kafka 的读写I/O性能和稳定性
性能指标

为了理解 Kafka 的性能表现需要监控以下指标:
(使用 Apache Kafka Metrics 与 JMX MBeans 支持监控这些指标)

  • 生产者延迟 (producer latency)
  • 消费者延迟 (consumer latency)
  • 消息吞吐量 (message throughput)
  • 磁盘使用情况 (disk usage)
  • 网络使用情况 (network usage)
安全性和认证

Kafka 支持针对传输层进行SSL加密和对客户端身份进行基于SSL的认证机制,关键在于使用适当的加密算法和 TLS/SSL 协商协议。这可以通过设置以下参数来实现:

ssl.keystore.location=/path/to/keystore.jks
ssl.keystore.password=password
ssl.key.password=password
ssl.truststore.location=/path/to/truststore.jks
ssl.truststore.password=password
security.protocol=SSL

此外还支持基于Kerberos和OAuth2.0的身份验证机制。对于生产环境而言建议使用基于 Kerberos的认证。这可以通过未来证书的身份验证机制实现:

sasl.kerberos.service.name=kafka
sasl.mechanism=GSSAPI

根据上述设置Kafka生产者和消费者将使用使用 Kerberos KDC进行身份验证以确保只有经过身份验证的用户才能访问 Kafka

三、监控

1.监控健康状态

为了了解 Kafka 的运作状态和性能状况需要对 Kafka 进行监控和诊断
通过Kafka提供的监控工具和插件可以诊断出 Kafka 的异常、错误、瓶颈和故障等问题并及时采取对应的措施

监控指标(Broker Producer Consumer)

以下是监控的健康指标:

Broker 状态
  • 运行状态可以通过 Kafka 文件夹下的 kafka-server-start.shkafka-server-stop.sh 脚本来启动和停止 broker。
  • 错误信息可以在 kafkaServer.log 文件中找到。可以使用 tail -f /path/to/kafkaServer.log 命令来跟踪最新日志信息。
  • 同步状态可以通过在 config/server.properties 文件中进行配置来达到最佳表现。
Producer 状态
  • 提交速度可以通过 Kafka 生产者默认的 batch.size 参数来控制,此参数默认值为16KB。可以根据需要调整此参数以达到最佳性能
batch.size=32768
  • 发送成功率可以通过设置生产者确认级别(acks)参数来实现。可配置的选项包括:ack = 0 (fire and forget), ack = 1 (awaiting for receipt) 或 ack = -1 (all)
acks=1
  • 错误率可以通过在配置文件中设置 retriesretry.backoff.ms 参数来控制,达到重试并逐渐递增时间的目的。如果发生无法恢复的错误,则会返回无法恢复的错误
retries=3
retry.backoff.ms=1000
Consumer 状态
  • 消费速度可以通过设置 fetch.min.bytesfetch.max.bytes 参数来控制,以读取指定数量的字节。建议将 fetch.min.bytes 参数设置得足够大,否则会导致大量短暂的网络请求。
fetch.min.bytes=65536
fetch.max.bytes=524288
  • 消费成功率可以通过运行多个消息消费者并监控每个消费者的消费进度,以确定 Kafka 是否实时消费每个消息。如果消息消费迟缓,则可以增加消费端的数量或增加消费端读取的批量大小。
  • 失败率可以通过设置消费端的 auto.offset.reset 参数来控制。该参数表示消费者应当在无法从上一个偏移量处读取消息时进行的操作,可以设置为 earliestlatest。如果设置为 earliest,消费者将从 Kafka 的起始偏移量开始重新读取。如果设置为 latest,消费者将从另一侧开始读取。
监控工具

Kafka提供了一些自带的监控工具,例如:jConsole、JMX、Kafka Monitor 和 Kafka Manager
除此之外还有第三方监控解决方案,例如:Prometheus、Grafana、ELK 等。

2.监控吞吐量和延迟

吞吐量是衡量性能的关键指标之一,指的是在单位时间内Kafka能够处理的消息数
延迟是指从消息产生到消息被消费所经历的时间
在监控Kafka的吞吐量和延迟时,需要注意以下几个关键数据:

读写比例

在Kafka集群中,读和写的比例必须是平衡的。如果读的速度比写的速度快,那么Kafka就会变成一个缓慢的读取服务。反之如果写的速度比读的速度快那么Kafka将成为一个缓慢的写入服务。因此要确保读写比例的平衡。

分区和副本数量

分区和副本数量对Kafka的吞吐量和延迟都有很大的影响。增加分区和副本数量可以提高吞吐量但同时也会增加延迟。因此需要平衡这两个指标

数据生产和消费速度

数据生产和消费的速度都可以影响Kafka的吞吐量和延迟。如果生产者速度过快或者消费者速度过慢就会导致Kafka缓存消息进而影响延迟。反之如果生产者速度过慢或者消费者速度过快也会导致吞吐量下降,因此需要确保生产和消费速度的平衡。

监控指标

可以通过如下几个监控指标来了解Kafka的吞吐量和延迟情况:


# 监控来自代理的每秒字节数,可以反应消息生产速度
kafka.server:name=BytesInPerSec, type=BrokerTopicMetrics

# 监控代理发送的每秒字节数,可以体现消息的传输速度
kafka.server:name=BytesOutPerSec, type=BrokerTopicMetrics

# 监控代理每秒钟接收到的消息数量,可以反应消息的生产速度
kafka.server:name=MessagesInPerSec, type=BrokerTopicMetrics

# 监控代理每秒发送的消息数量,可以反应消息的传输速度
kafka.server:name=MessagesOutPerSec, type=BrokerTopicMetrics

#  监控消费端每个分区的消息滞后情况
kafka.consumer:name=FetchConsumer,client-id=([-.\w]+)-([-\w]+)-(?<name>\w+)-fetcher-\d+, topic=(.*),partition=(.*):records-lag

#  监控Kafka每个分区的末尾偏移量,可以确定消息是否已被成功传输到Kafka集群中的所有副本
kafka.log:name=LogEndOffset,partition=(.*)

   

以上指标可以通过Kafka内置JMX导出器暴露为JMX bean或通过集成Prometheus导出器来作为Prometheus指标可视化

3.监控存储和网络使用情况

存储和网络使用情况

和任何一个分布式系统一样Kafka的存储和网络使用情况也是我们需要关注和监控的指标
只有对存储和网络状态进行充分的监控才能及时发现问题并规避风险

监控指标

监控 Kafka 的存储和网络使用情况时,需要关注以下指标:

  • 存储容量和占用情况
  • 网络速度和带宽使用率
  • 磁盘I/O速度和响应时间等。

4.报警通知

在Kafka运维和监控的过程中及时发现并解决潜在的问题非常重要,这需要针对Kafka的指标和参数设置报警阀值,当超过阀值时及时发送通知信息给Kafka负责的人员或者通过机器人来进行通知

报警设置

Kafka可以通过架构模型使用系统包和第三方解决方案来设置定期或触发报警,例如:Nagios、Zabbix、Prometheus、Sensu 和 PagerDuty 等。

四、日志管理

Kafka在运行时会生成大量的日志记录信息,包含了运行状态、错误信息、性能指标等。
这些日志文件会占用很大的磁盘空间,过多的日志文件也会影响Kafka的性能,因此需要采取一些日志管理措施来清理无用的日志记录减少磁盘空间的占用并提高Kafka的性能

1.日志清理策略

日志压缩

对Kafka的日志进行压缩以减少磁盘空间占用,Kafka提供了两种日志压缩方式:gzip和snappy。
gzip会导致CPU负载的增加但能够获得更高的压缩比
snappy则需要更少的CPU负载但压缩比相对较低
可以根据自己的需求选择适合的压缩方式。

日志清理策略

使用Kafka内置的日志清理工具来清除无用的日志记录,Kafka的日志清理工具会根据一些配置参数来删除旧的日志记录。
例如可以指定一个保留期限来决定多长时间之前的日志记录需要被删除
设定一个日志最大大小当每个分区的日志大小超过该值时就会删除最早的日志

日志管理工具

可以使用一些第三方日志管理工具如ELK(Elasticsearch、Logstash和Kibana)
能够对Kafka的日志进行集中管理和分析从而更好地了解Kafka的运行状况

2.错误处理和故障排除

当Kafka出现错误或故障时,您需要采取一些措施来排查和解决问题

监控Kafka的运行状态

监控Kafka的运行状态了解Kafka当前的负载、内存占用、网络流量等情况
可以使用JMX来监控Kafka的运行情况也可以使用第三方监控工具如Zabbix、Grafana等

日志记录和分析

对Kafka的日志进行记录和分析来查找错误的现象可以通过修改log4j配置引入Kafka的日志,也可以使用第三方日志集中管理工具如ELK来集中收集和分析日志记录

Kafka故障排除

当Kafka发生故障时需要迅速排查问题并采取措施。在排除问题时可以参考Kafka的官方文档,或者向社区发帖求助。同时也需要思考并采用针对性的方案来解决具体问题,如增加分区数量、增加副本数量、修改消息传输模式等。

五、小结

在本文中介绍了Kafka的运维和监控,并提供了一些实用的技术方案和最佳实践。同时也提出了运维和监控中的一些挑战和问题进行了分析和探讨

相信在Apache Software Foundation 及相关开发者的努力下Kafka一定可以发展成为更加完善、更加稳定和更加适用于复杂场景的技术文章来源地址https://www.toymoban.com/news/detail-442690.html

到了这里,关于深入解读Kafka:如何进行运维与监控,实现性能调优和故障排除的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 1+X 云计算运维与开发(中级)案例实战——搭建harbor私有仓库并实现主从同步

    学而不思则罔,思而不学则殆。 IP 主机名 节点 192.168.200.132/24 master Harbor 仓库节点 192.168.200.133/24 slave Harbor 备份节点 说明:本次实验使用的镜像为k8sallinone,该镜像网络使用net模式,可上外网,且该镜像已安装docker引擎,若使用其他镜像请自行安装docker引擎 准备文件: Dock

    2024年02月07日
    浏览(47)
  • Kafka运维监控:Kafka-Eagle安装

    kafka自身并没有集成监控管理系统,因此对kafka的监控管理比较不便,好在有大量的第三方监控管理系统来使用,常见的有: Kafka Eagle KafkaOffsetMonitor Kafka Manager(雅虎开源的Kafka集群管理器) Kafka Web Console 还有JMX接口自开发监控管理系统 安装包下载地址:http://download.kafka-eag

    2024年02月16日
    浏览(37)
  • 阿里云——云服务器基础运维与管理

    作者简介:一名云计算网络运维人员、每天分享网络与运维的技术与干货。   座右铭:低头赶路,敬事如仪 个人主页: 网络豆的主页​​​​​ 目录 写在前面 学习目标: 一.3个理由拥抱云服务器 1.什么是云服务器  2.使用云服务的好处 3.推荐云服务的理由 二.1分钟快速定

    2024年02月16日
    浏览(52)
  • 云计算1+X平台运维与开发认证(初级)认证考试

    1、下面哪个阶段不是项目管理流程中的阶段?【 B 】 A、 项目立项 B、 项目质保 C、 项目测试 D、 项目开发 2、为满足金融业务的监管和安全要求,平台不需要考虑下列哪个应用?   [ A ] A、 文档版本管理 B、 防火墙策略 C、 安全漏洞扫描 D、 多租户安全隔离 3、以下哪一项最

    2023年04月16日
    浏览(43)
  • 1+X云计算平台运维与开发认证(初级)多选大全

    下面属于测试用例黑盒技术的是(15分)  A、等价类划分(正确答案)  B、边界值分析(正确答案)  C、错误推测(正确答案)  D、因果图(正确答案) 批量删除当前目录下后缀名为.c的文件。如a.c、b.c。(15分)  A、rm *.c(正确答案)  B、find . -name \\\"*.c\\\" -maxdepth 1 | xargs rm(正确答案)  C、find

    2024年02月08日
    浏览(49)
  • 云计算平台运维与开发-第五章私有云技术(wlw)

    用脚本部署OpenStack平台 虚拟机安装教程 1.新建虚拟机 2.自定义 3.下一步 4.稍后安装操作系统 5.选择CentOS7 64位 6.改名称,下一步 7.下一步  8. 9. 10.  11. 12.  13. 14. 15.自定义硬件  16.添加-网络适配器-完成 17.设置网络适配器2为NAT模式 18.点击完成  19. 20.点击 X 21.点击设置 22. 23

    2024年02月04日
    浏览(53)
  • 1+X 云计算运维与开发(中级)案例实战——单节点应用商城系统部署

    学而不思则罔,思而不学则殆。 整个系统的部署说白了就是安装各种服务,然后修改配置文件,最后启动。 主机名!主机名!主机名!(重要的事说三遍) 1.修改主机名,修改 /etc/hosts 文件。 2.使用 gpmall-repo 文件和 CentOS-7-x86_64-DVD-1511.iso 文件来配置 yum源 。 3.使用yum来安装

    2024年02月01日
    浏览(54)
  • 华为 1+X 网络系统运维与建设中级实操模拟题

    目 实验拓扑 配置中的注意事项:(针对新手) 实验目的 实验要求 实验步骤 一、搭建实验拓扑 二、配置主机名称 三、配置链路聚合 四、VLAN 配置 五、配置 RSTP 协议 六、配置 IP 地址 七、配置 VRRP 协议。 八、配置 OSPF 协议 九、配置 PAP 和 CHAP 认证 十、配置静态路由 十一、

    2024年02月05日
    浏览(52)
  • 1+X 云计算运维与开发(中级)案例实战——分布式部署集群应用商城系统

    学而不思则罔,思而不学则殆。 IP 主机名 节点 192.168.200.10 mycat Mycat 中间件服务节点 192.168.200.20 db1 MariaDB 数据库集群主节点 192.168.200.30 db2 MariaDB 数据库集群从节点 192.168.200.40 zookeeper1 集群节点 192.168.200.50 zookeeper2 集群节点 192.168.200.60 zookeeper3 集群节点 192.168.200.70 redis 消息队

    2023年04月23日
    浏览(70)
  • 【运维知识大神篇】超详细的ELFK日志分析教程10(kafka集群原理+基本使用+zookeeper和kafka堆内存调优+kafka监控和压力测试+filebeat和logstash对接kafka)

    本篇文章继续给大家介绍ELFK日志分析,我们先前介绍了ELFK架构,zookeeper部署使用,kafka的部署,仅差kafka使用就将整个体系融汇贯通了。我们本篇文章将以kafka为核心,详细介绍kafka使用,最终将kafka融入ELFK架构中,大致内容见下面目录。 目录 kafka集群原理 一、专业术语 二、

    2024年02月04日
    浏览(70)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包