如何控制Flink代码运行时控制日志级别

这篇具有很好参考价值的文章主要介绍了如何控制Flink代码运行时控制日志级别。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

在Flink程序中,可以通过设置日志级别来控制控制台输出的信息。要让控制台只打印结果信息,可以将日志级别设置为ERROR。这样,只有错误信息和print()方法输出的结果会显示在控制台上。

要设置日志级别,请在Flink项目的resources目录下创建一个名为log4j.properties的文件(如果已经存在,请修改相应的配置)。将以下内容添加到log4j.properties文件中:

log4j.rootLogger=ERROR, console
log4j.appender.console=org.apache.log4j.ConsoleAppender
log4j.appender.console.layout=org.apache.log4j.PatternLayout
log4j.appender.console.layout.ConversionPattern=%d{yyyy-MM-dd HH:mm:ss} %-5p %c{1}:%L - %m%n

这将把日志级别设置为ERROR,并将日志输出到控制台。在这种配置下,控制台将只显示错误信息和print()方法输出的结果。

注意:如果项目中使用的是logback而不是log4j,则需要创建或修改logback.xml文件,如下所示:

<configuration>
    <appender name="console" class="ch.qos.logback.core.ConsoleAppender">
        <encoder>
            <pattern>%d{yyyy-MM-dd HH:mm:ss} %-5level %logger{36} - %msg%n</pattern>
        </encoder>
    </appender>

    <root level="ERROR">
        <appender-ref ref="console" />
    </root>
</configuration>

这将把日志级别设置为ERROR,并将日志输出到控制台。在这种配置下,控制台将只显示错误信息和print()方法输出的结果。文章来源地址https://www.toymoban.com/news/detail-741023.html

到了这里,关于如何控制Flink代码运行时控制日志级别的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • zookeeper 设置日志级别和日志滚动策略

    目前zookeeper的日志配置中,只配置了一个输出到console的appender,并不具备滚动策略,所以随着时间的推移,标准输出日志中的内容越来越多,为了提升服务的稳定性,保障集群正常运行,对这部分配置需要进行修改。 这里将演示配置zookeeper日志为按每个日志文件大小1GB来切割

    2024年02月06日
    浏览(32)
  • Spring Boot日志基础使用 设置日志级别

    然后 我们来说日志 日志在实际开发中还是非常重要的 即可记录项目状态和一些特殊情况发生 因为 我们这里不是将项目 所以 讲的也不会特别深 基本还是将Spring Boot的日志设置或控制这一类的东西 相对业务的领域我们就不涉及了 日志 log 初期最明显的作用在于 开发中 你可以

    2024年02月10日
    浏览(36)
  • SpringBoot运行中动态修改logback日志级别

    思路:写一个api接口,通过api接口调用的方式动态修改logback的log日志打印级别 这里提供2个接口,分别是修改logback全局日志级别 ,和单独修改某个package包的日志级别

    2024年02月12日
    浏览(43)
  • SpringBoot设置日志输出级别及Logback日志工具输出到文件

    1.SpringBoot设置日志输出级别 越高包含的就越多,输出的信息也就越多 2.Logback日志工具使用 1.首先需要把你yaml文件里面关于日志的配置去掉,避免冲突报错 2.在resource目录下创建logback-spring.xml文件 2.运行后指定路径就会生成.log文件 3.此时一般默认只有info信息写入,其他两个

    2024年02月16日
    浏览(61)
  • 【Flink】Flink任务缺失Jobmanager日志的问题排查

    问题不是大问题,不是什么代码级别的高深问题,也没有影响任务运行,纯粹因为人员粗心导致,记录一下排查的过程。 一个生产环境的奇怪问题,环境是flink1.15.0 on yarn3.2.2的,研发人员反馈业务正常运行,但是最近变更算法替换新包的时候有业务异常,然后需要排查日志的

    2024年01月19日
    浏览(42)
  • IntelliJ IDEA 统一设置编码为utf-8编码 及 SpringBoot 打 jar 包运行 在windows 平台控制台和日志 乱码解决

    最新在做小程序支付项目,在本地环境和linux 环境部署上运行没有问题,但是部署到window 环境,请求易通支付接口时,对方返回 Try again later!io.vertx.core.json.Json.decodeValue(Json.java:168) 意思是 编码格式出错,对方技术人员也说大概率是编码的问题,需要UTF-8。 所以打算抽出一下午

    2024年02月15日
    浏览(56)
  • Flink配置Yarn日志聚合、配置历史日志。

    对于已经结束的yarn应用,flink进程已经退出无法提供webui服务。所以需要通过JobHistoryServer查看保留在yarn上的日志。 下面就给大家分享一下我在配置方面的经历吧。 1.yarn配置聚合日志 编辑 :yarn-site.xml 说明 : 开启后任务执行 “完毕” 后,才会上传日志至hdfs 查询 :yarn lo

    2024年02月10日
    浏览(36)
  • Flink日志文件配置详解

    Apache Flink是一个分布式流处理和批处理框架,它广泛应用于大规模数据处理和分析场景。在Flink的应用程序中,日志文件是非常重要的组成部分,可以帮助开发人员进行故障排查、性能优化和监控等操作。本文将详细介绍如何配置Flink的日志文件。 Flink日志文件的配置主要包括

    2024年02月05日
    浏览(44)
  • 【Flink-1.17-教程】-【二】Flink 集群搭建、Flink 部署、Flink 运行模式

    集群规划: 具体安装部署步骤如下: 1、下载并解压安装包 (1)下载安装包 flink-1.17.0-bin-scala_2.12.tgz,将该 jar 包上传到 hadoop102 节点服务器的 /opt/software 路径上。 (2)在 /opt/software 路径上解压 flink-1.17.0-bin-scala_2.12.tgz 到 /opt/module 路径上。 2、修改集群配置 (1)进入 conf 路

    2024年01月18日
    浏览(60)
  • Flink 系列四 Flink 运行时架构

    目录 前言 介绍 1、程序结构 1.1、Source 1.2、Transformation 1.3、Sink 1.4、数据流 2、Flink运行时组件 2.1、Dispatcher 2.2、JobManager 2.3、TaskManager 2.4、ResourceManager 3、任务提交流程 3.1、standalone 模式 3.2、yarn 模式 4、任务调度原理 4.1、并行度 4.1.1、概念 4.4.2、Flink中的并行度设置 4.2、Ta

    2024年02月14日
    浏览(42)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包