Flink Dashboard的数据监控功能

这篇具有很好参考价值的文章主要介绍了Flink Dashboard的数据监控功能。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

一、数据反压

1.1 数据反压是啥

数据反压是在实时数据处理中,数据处理流的某个节点上游产生数据的速度大于该节点处理数据速度,导致数据堆积,从该节点向上游传递,一直到数据源,并降低数据源的摄入速度。导致数据反压出现的常见场景,比如, GC导致短时间数据积压,数据的波动带来的一段时间内需处理的数据量大增,甚至是checkpoint本身都可能造成反压。在窗口内做大量的外连情况,如redis/es等,redis连接过多会慢或直接报错。

若流程为A->B->C->D->E->F ,ABCD出现反压(即这里status为high),则表示E处理流程导致 D->C->B->A 相继变慢。

查看背压:当DAG的某个过程的背压状态为 low 或者 high 时,则说明下游的处理速度不及上游的输出速度。也就是说 下游的处理是整个任务的瓶颈所在,需要进行优化处理

1.2 Dashboard体现

点击Overview的Running Job List中的某个Job Name,再点击该job的某个算子,点击Backpressure查看,状态为HIGH时,则存在数据反压问题
flink 监控工具,JAVA,flink,大数据,数据库

二、数据倾斜

1.1 数据倾斜是啥

对于一个分部式的集群来说,理想的情况是每个节点负责处理一定量数据。如果数据分散度不够,导致大量的数据集中到了一台或者几台服务节点上,就是出现了数据倾斜。

1.2 Dashboard体现

点击Overview的Running Job List中的某个Job Name,接着点击某个算子,再点击SubTasks看每个节点处理数据量,如果处理不均匀则存在数据倾斜,会导致部分窗口数据处理缓慢。

由于并行度设为了1,所以图里只有一个node。
flink 监控工具,JAVA,flink,大数据,数据库
优化方式:

  • 数据标记分流
  • 窗口优化
  • 在不影响逻辑的前提下,keyby对数据分流时选择较为均匀的数据。

三、消费滞后

1.1 消费滞后是啥

没有出现数据反压或数据倾斜,但是Flink的Watermark追不上实时时间,不能实时处理。

1.2 需单进程确认点

  1. flink读取的数据是否产生的及时。
  2. 窗口Aggregate处理是否存在死循环或较慢的点
    (如:正则/redis/http等)
  3. flink计算结果的输出处理慢。
    (如:使用.disablechain.addsink()后再在dashboard中查看窗口和输出分别处理的速率)

可优化点:将窗口的处理逻辑优化的简单一些,将较长时间的处理放在数据处理部分或windowFunction部分。文章来源地址https://www.toymoban.com/news/detail-640320.html

到了这里,关于Flink Dashboard的数据监控功能的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 实战Java springboot 采用Flink CDC操作SQL Server数据库获取增量变更数据

    目录 前言: 1、springboot引入依赖: 2、yml配置文件 3、创建SQL server CDC变更数据监听器 4、反序列化数据,转为变更JSON对象 5、CDC 数据实体类 6、自定义ApplicationContextUtil 7、自定义sink 交由spring管理,处理变更数据         我的场景是从SQL Server数据库获取指定表的增量数据,查

    2024年02月10日
    浏览(79)
  • 24、Flink 的table api与sql之Catalogs(java api操作数据库、表)-2

    一、Flink 专栏 Flink 专栏系统介绍某一知识点,并辅以具体的示例进行说明。 1、Flink 部署系列 本部分介绍Flink的部署、配置相关基础内容。 2、Flink基础系列 本部分介绍Flink 的基础部分,比如术语、架构、编程模型、编程指南、基本的datastream api用法、四大基石等内容。 3、

    2024年02月04日
    浏览(46)
  • 大数据-玩转数据-Flink恶意登录监控

    对于网站而言,用户登录并不是频繁的业务操作。如果一个用户短时间内频繁登录失败,就有可能是出现了程序的恶意攻击,比如密码暴力破解。 因此我们考虑,应该对用户的登录失败动作进行统计,具体来说,如果同一用户(可以是不同IP)在2秒之内连续两次登录失败,就

    2024年02月07日
    浏览(34)
  • Flink 系例 之 Dashboard 安装与界面操作

    前期入门讲解了需多常用算子、方法、和连接器的使用与代码示例,本文讲解如何安装 Apache Flink Dashboard 平台与界面基本操作。 Apache Flink Dashboard 是 Flink 的客户端管理控制平台,也是 JOB 运行时任务跟踪与管理的显示平台。撑握基本的应用是学习 Flink 必备的,通过管理控制台

    2024年02月05日
    浏览(27)
  • 使用flink实现《实时监控和日志分析》的案例 java版

    本文档介绍了使用Java和Flink实现实时监控和日志分析的案例。该案例旨在通过实时监控和日志分析来提高系统的可靠性和性能。 [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-kjPKQuIf-1686052913444)(./architecture.png)] 如上图所示,该系统由以下组件组成

    2024年02月06日
    浏览(35)
  • 从零开始搭建flink流式计算项目-2小试牛刀-物联网场景下,如何实现设备采集参数监控报警功能

    * 设备ID */ private Integer deviceId; * 监控的变量名称 */ private String varName; * 最小值 */ private Double min; * 最大值 */ private Double max; } /** * 报警消息 */ @Data public class AlarmMessage { * 设备 */ private Integer deviceId; * 报警时间 */ private Long timestamp; /** * 触发报警的采集变量名称 */ private String ala

    2024年04月11日
    浏览(32)
  • Flink系列之:使用Flink CDC从数据库采集数据,设置checkpoint支持数据采集中断恢复,保证数据不丢失

    博主相关技术博客: Flink系列之:Debezium采集Mysql数据库表数据到Kafka Topic,同步kafka topic数据到StarRocks数据库 Flink系列之:使用Flink Mysql CDC基于Flink SQL同步mysql数据到StarRocks数据库

    2024年02月11日
    浏览(45)
  • Flink CDC实时同步PG数据库

    JDK:1.8 Flink:1.16.2 Scala:2.11 Hadoop:3.1.3 github地址:https://github.com/rockets0421/FlinkCDC-PG.git  1、更改配置文件postgresql.conf # 更改wal日志方式为logical wal_level = logical # minimal, replica, or logical # 更改solts最大数量(默认值为10),flink-cdc默认一张表占用一个slots max_replication_slots = 20 # m

    2024年02月13日
    浏览(57)
  • 自定义Flink SourceFunction定时读取数据库

    Source 是Flink获取数据输入的地方,可以用StreamExecutionEnvironment.addSource(sourceFunction) 将一个 source 关联到你的程序。Flink 自带了许多预先实现的 source functions,不过你仍然可以通过实现 SourceFunction 接口编写自定义的非并行 source,也可以通过实现继承 RichSourceFunction 类编写自定义的

    2024年02月02日
    浏览(27)
  • 【大数据工具】Flink集群搭建

    1. 单机版 Flink 安装与使用 1、下载 Flink 安装包并上传至服务器 下载 flink-1.10.1-bin-scala_2.11.tgz 并上传至 Hadoop0 /software 下 2、解压 3、创建快捷方式 4、配置环境变量 5、启动 6、页面查看: hadoop0:8081 2. Standalone 模式安装 1、集群规划 主机名 JobManager TaskManager hadoop1 是 是 hadoop2 是

    2024年02月08日
    浏览(29)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包