【kafka】Kafka 可视化工具Kafka Eagle安装和使用

这篇具有很好参考价值的文章主要介绍了【kafka】Kafka 可视化工具Kafka Eagle安装和使用。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

一、背景

Kafka产线环境需要管理的Topic和Consumser越来越多,使用命令行工具进行管理会非常繁杂。因此,大数据平台上需要一套Kafka的管理监控系统,Kafka-Eagle。

Kafka Eagle是一个用于监控和管理kafka的开源组件,可以同时监控多个kafka集群。
Kafka Eagle提供了完善的监控页面和kafka常用操作的管理界面,便于管理员对kafka集群进行运维管理。

Kafka Eagle提供了KSQL操作的可视化界面,让你可以非常快速的查看kafka中的消息。

Kafka Eagle支持多种报警方式,如钉钉,微信和邮件等。

二、安装

1. 安装MySQL,建库、建用户,授权

# yum -y install https://repo.mysql.com//mysql57-community-release-el7-11.noarch.rpm


# sed   -i  's/gpgcheck=1/gpgcheck=0/g'   /etc/yum.repos.d/mysql-community.repo

# yum clean all 

【kafka】Kafka 可视化工具Kafka Eagle安装和使用

# yum -y install mysql-community-server  mysql-community-client

# cat /etc/my.cnf

####################################

[mysqld]
pid-file  = /var/run/mysqld/mysqld.pid
socket  = /var/lib/mysql/mysql.sock
log-error  = /var/log/mysqld.log
datadir  = /var/lib/mysql
symbolic-links  = 0
max_connections = 1000
skip_name_resolve
character-set-client-handshake  = FALSE
character-set-server =  utf8
collation-server = utf8_general_ci
init_connect =  "SET NAMES 'utf8'"

[mysql]
default-character-set  = utf8

[client]
default-character-set  = utf8

####################################

初始化MySQL,可以通过执行 mysqld --initialize ,使用 --initialize 选项,以“安全模式”初始化,会在日志中生成一个随机的root初始密码。

# mysqld --initialize --datadir=/opt/data/mysql --user=mysql

#  cat /var/log/mysqld.log | grep "temporary password"

# mysql_init_passwd=`cat /var/log/mysqld.log | grep "temporary password" | awk '{print $NF}'`

# systemctl  start mysqld

# systemctl  enable  mysqld

# systemctl status  mysqld

【kafka】Kafka 可视化工具Kafka Eagle安装和使用

#  mysql -u root -p"${mysql_init_passwd}"

首次登录,必须更改随机的root初始密码,且密码强度需满足一定要求,才能执行数据库操作。

> ALTER USER 'root'@'localhost' IDENTIFIED BY 'MySQL@123';
> exit

【kafka】Kafka 可视化工具Kafka Eagle安装和使用

#  mysql -u root -p"MySQL@123"


> CREATE DATABASE ke DEFAULT CHARACTER SET utf8 DEFAULT COLLATE  utf8_general_ci;
> GRANT ALL PRIVILEGES ON ke.* TO 'ke'@'127.0.0.1' IDENTIFIED BY 'Ke@123';
> flush privileges; 

2. 安装kafka-eagle

下载 Kafka Eagle
https://github.com/smartloli/kafka-eagle-bin/archive/v2.1.0.tar.gz

# tar -zxf kafka-eagle-bin-2.1.0.tar.gz
# tar -zxf kafka-eagle-bin-2.1.0/efak-web-2.1.0-bin.tar.gz
# mv efak-web-2.1.0 /opt/efak

# vim /opt/efak/system-config.properties

##############################################

######################################
# multi zookeeper & kafka cluster list
# Settings prefixed with 'kafka.eagle.' will be deprecated, use 'efak.' instead
######################################
efak.zk.cluster.alias=cluster1
cluster1.zk.list=10.12.32.79:2189,10.12.32.80:2189,10.12.32.81:2189

######################################
# zookeeper enable acl
######################################
cluster1.zk.acl.enable=false
cluster1.zk.acl.schema=digest
cluster1.zk.acl.username=test
cluster1.zk.acl.password=test123

######################################
# broker size online list
######################################
cluster1.efak.broker.size=20

######################################
# zk client thread limit
######################################
kafka.zk.limit.size=16

######################################
# EFAK webui port
######################################
efak.webui.port=8048

######################################
# EFAK enable distributed
######################################
efak.distributed.enable=false
efak.cluster.mode.status=master
efak.worknode.master.host=localhost
efak.worknode.port=8085

######################################
# kafka jmx acl and ssl authenticate
######################################
cluster1.efak.jmx.acl=false
cluster1.efak.jmx.user=keadmin
cluster1.efak.jmx.password=keadmin123
cluster1.efak.jmx.ssl=false
cluster1.efak.jmx.truststore.location=/data/ssl/certificates/kafka.truststore
cluster1.efak.jmx.truststore.password=ke123456

######################################
# kafka offset storage
######################################
cluster1.efak.offset.storage=kafka
#cluster2.efak.offset.storage=zk

######################################
# kafka jmx uri
######################################
cluster1.efak.jmx.uri=service:jmx:rmi:///jndi/rmi://%s/jmxrmi

######################################
# kafka metrics, 15 days by default
######################################
efak.metrics.charts=true
efak.metrics.retain=15

######################################
# kafka sql topic records max
######################################
efak.sql.topic.records.max=5000
efak.sql.topic.preview.records.max=10

######################################
# delete kafka topic token
######################################
efak.topic.token=keadmin

######################################
# kafka sasl authenticate
######################################
cluster1.efak.sasl.enable=false
cluster1.efak.sasl.protocol=SASL_PLAINTEXT
cluster1.efak.sasl.mechanism=SCRAM-SHA-256
cluster1.efak.sasl.jaas.config=org.apache.kafka.common.security.scram.ScramLoginModule required username="kafka" password="kafka-eagle";
cluster1.efak.sasl.client.id=
cluster1.efak.blacklist.topics=
cluster1.efak.sasl.cgroup.enable=false
cluster1.efak.sasl.cgroup.topics=
cluster2.efak.sasl.enable=false
cluster2.efak.sasl.protocol=SASL_PLAINTEXT
cluster2.efak.sasl.mechanism=PLAIN
cluster2.efak.sasl.jaas.config=org.apache.kafka.common.security.plain.PlainLoginModule required username="kafka" password="kafka-eagle";
cluster2.efak.sasl.client.id=
cluster2.efak.blacklist.topics=
cluster2.efak.sasl.cgroup.enable=false
cluster2.efak.sasl.cgroup.topics=

######################################
# kafka ssl authenticate
######################################
#cluster3.efak.ssl.enable=false
#cluster3.efak.ssl.protocol=SSL
#cluster3.efak.ssl.truststore.location=
#cluster3.efak.ssl.truststore.password=
#cluster3.efak.ssl.keystore.location=
#cluster3.efak.ssl.keystore.password=
#cluster3.efak.ssl.key.password=
#cluster3.efak.ssl.endpoint.identification.algorithm=https
#cluster3.efak.blacklist.topics=
#cluster3.efak.ssl.cgroup.enable=false
#cluster3.efak.ssl.cgroup.topics=

######################################
# kafka sqlite jdbc driver address
######################################
#efak.driver=org.sqlite.JDBC
#efak.url=jdbc:sqlite:/hadoop/kafka-eagle/db/ke.db
#efak.username=root
#efak.password=www.kafka-eagle.org

######################################
# kafka mysql jdbc driver address
######################################
efak.driver=com.mysql.cj.jdbc.Driver
efak.url=jdbc:mysql://127.0.0.1:3306/ke?useUnicode=true&characterEncoding=UTF-8&zeroDateTimeBehavior=convertToNull
efak.username=ke
efak.password=Ke@123

##############################################

设置Kafka Eagle环境变量

# vim /etc/profile

##############################################

#kafka eagle
KE_HOME=/opt/efak
JAVA_HOME=/opt/jdk
JRE_HOME=/opt/jdk/jre

PATH=$PATH:$JAVA_HOME/bin:$JRE_HOME/bin:$KE_HOME/bin
CLASSPATH=.:$JAVA_HOME/lib:$JRE_HOME/lib

export KE_HOME JAVA_HOME JRE_HOME PATH CLASSPATH

##############################################

 # source /etc/profile

启动 Kafka Eagle

# chown  -R  test:test   opt/efak

#  su  -  test

$ ke.sh start

【kafka】Kafka 可视化工具Kafka Eagle安装和使用

$  ss -tan | grep 8048

#  systemctl stop firewalld
# systemctl disable firewalld

三、Kafka Eagle 使用

浏览器访问: http://xx.xx.xx.xx:8048
默认用户名密码:admin/123456

 【kafka】Kafka 可视化工具Kafka Eagle安装和使用

【kafka】Kafka 可视化工具Kafka Eagle安装和使用

四、参考

Kafka Eagle安装详情及问题解答
https://www.cnblogs.com/smartloli/p/12110570.html

各版本下载地址
http://www.kafka-eagle.org/articles/docs/changelog/changelog.html

安装使用文档
https://docs.kafka-eagle.org/2.env-and-install/2.installing

Dashboard
http://www.kafka-eagle.org/articles/docs/quickstart/dashboard.html文章来源地址https://www.toymoban.com/news/detail-413941.html

到了这里,关于【kafka】Kafka 可视化工具Kafka Eagle安装和使用的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • Docker安装kafka可视化管理工具 - Kafka Manager

    说明 :此处是在前面使用Docker安装kafka的基础之上,再来使用Docker安装kafka-manager 第一步:使用下述命令从Docker Hub查找镜像,此处我们要选择的是sheepkiller所构建的kafka-manager镜像 第二步:使用下述命令来启动kafka-manager容器  ZK_HOSTS :配置zookeeper服务的地址 kafka-manager服务的默

    2024年02月12日
    浏览(36)
  • Kafka可视化工具-Offset Explorer使用

    感谢点赞和关注 ,每天进步一点点!加油! 目录 一、概述 二、环境信息 三、安装和使用 3.1 下载Offset Explorer 和安装 3.2 软件配置 3.2.1Properties 3.2.2Properties 3.2.3Advanced 3.2.4 JAAS config 3.2.5修改配置文件 3.3 基本使用 3.3.1查看topic分区列表及分区leader位置信息 3.3.2查看数据 Offset E

    2023年04月20日
    浏览(29)
  • 【可视化工具】Kafka-Offset Explorer使用

    感谢点赞和关注 ,每天进步一点点!加油! 目录 一、概述 二、环境信息 三、安装和使用 3.1 下载Offset Explorer 和安装 3.2 软件配置 3.2.1Properties 3.2.2Properties 3.2.3Advanced 3.2.4 JAAS config 3.2.5修改配置文件 3.3 基本使用 3.3.1查看topic分区列表及分区leader位置信息 3.3.2查看数据 Offset E

    2024年01月16日
    浏览(25)
  • Kafka 可视化工具 Kafka Tool

    使用Kafka的小伙伴,有没有为无法直观地查看 Kafka 的 Topic 里的内容而发过愁呢? 下面推荐给大家一款带有可视化页面的Kafka工具: Kafka Tool (目前最新版本是 2.0.4 ) 下载地址 http://www.kafkatool.com/download.html 下载界面 不同版本的Kafka对应不同版本的工具,个人使用的是0.11,所

    2024年02月12日
    浏览(28)
  • kafka map kafka可视化工具

    kafka-map是使用Java17和React开发的一款kafka可视化工具。 目前支持的功能有: 多集群管理 集群状态监控(分区数量、副本数量、存储大小、offset) 主题创建、删除、扩容(删除需配置delete.topic.enable = true) broker状态监控 消费者组查看、删除 重置offset 消息查询(支持String和j

    2024年03月28日
    浏览(34)
  • kafka可视化工具整理(七)

    零、主流kafka可视化工具有两种 ①安装在本地的服务,通过网络连接kafka拉取数据并展示 比如:offsetexplorer 应用 ②安装在服务器上应用,通过服务器自行拉取代码,对外提供Web,查看kafka的状态及数据。比如:kafdrop应用 一、本地服务 offsetexplorer 1、去kafkatool官网下载Offset E

    2024年02月06日
    浏览(28)
  • kafka可视化工具-kafkamap

    安装openjdk11 kafka-map 依赖openjdk11 下载链接 https://learn.microsoft.com/zh-cn/java/openjdk/download#openjdk-11 执行命令: tar -zxvf openjdk-11.0.1_linux-x64_bin.tar.gz 部署kafka-map 链接: https://pan.baidu.com/s/16-chx9WP7U9ocSMLMJMAMg?pwd=1234 提取码: 1234 在环境上解压: 执行命令:tar -xf kafka-map.tar, 修改配置文件

    2024年02月06日
    浏览(25)
  • 【数仓】Kafka消息可视化工具:Offset Explorer(原名kafka Tool)

    Offset Explorer(以前称为Kafka Tool)是一个用于管理和使用Apache Kafka®集群的GUI应用程序。 它提供了一个直观的界面,允许用户快速查看Kafka集群中的对象以及集群主题中存储的消息。 它包含面向开发人员和管理员的功能。 一些主要功能包括: 快速查看所有Kafka集群,包括其代

    2024年04月09日
    浏览(32)
  • kafka及可视化工具offset explorer

    KAFKA背景         Kafka是由Apache软件基金会开发的一个开源流处理平台,由Scala和Java编写。Kafka是一种高吞吐量的分布式发布订阅消息系统,它可以处理消费者在网站中的所有动作流数据。 这种动作(网页浏览,搜索和其他用户的行动)是在现代网络上的许多社会功能的一个

    2024年02月16日
    浏览(33)
  • kafka可视化web管理工具-KafkaMmap

    ​ 使用过kafka的小伙伴应该都知道kafka本身是没有管理界面的,所有操作都需要手动执行命令来完成。但有些命令又多又长,如果没有做笔记,别说是新手,就连老手也不一定能记得住,每次想要使用的时候都要上网搜索一下。有些崇尚geek精神的人或许觉得命令行才是真爱,

    2024年01月24日
    浏览(29)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包