日志采集 logback集成logstash ELK springboot

这篇具有很好参考价值的文章主要介绍了日志采集 logback集成logstash ELK springboot。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

一、pom.xml配置 

logstash依赖 

        <!--logback集成logstash-->
        <dependency>
            <groupId>net.logstash.logback</groupId>
            <artifactId>logstash-logback-encoder</artifactId>
            <version>4.11</version>
        </dependency>

二、logback.xml配置 

给logback配置logstash的那台机器的ip和服务的端口 


<appender name="logstash"  class="net.logstash.logback.appender.LogstashTcpSocketAppender">
    <!-- 这里设置logstash的ip地址和监听端口,防火墙放行该端口 -->           
    <destination>192.168.10.2:20001</destination>
    <encoder charset="UTF-8" class="net.logstash.logback.encoder.LogstashEncoder"></encoder>
</appender>
 
 
<root level="debug">
<!-- 在原有的root中加上ref,调用logstash -->
    <appender-ref ref="logstash"/>
</root>

三、logstash.conf 

在logstash那台机器上配置 

input {
  tcp {
    port => 20001
    codec => json_lines
  }
}
 
output {
  stdout{
       codec => json_lines 
    }
 
}

在安装了logstash的服务器里,找到logstash文件目录,执行./logstash -f logstash.conf即可启动logstash

以上配置即可实现 logback 到 logstash。

下面是升级配置

四、其他配置

        <encoder class="net.logstash.logback.encoder.LogstashEncoder">
            <providers>
                <timestamp/>
                <version/>
                <message/>
                <loggerName/>
                <threadName/>
                <logLevel/>
                <callerData/>
            </providers>
        </encoder>
input {
    tcp {
    mode => "server"
    #这个需要配置成本机ip,不然logstash无法启动
    host => "127.0.0.1"
    #端口号
    port => 4567
    codec => json_lines
  }

}
filter {  
    json {  
        source => "message"  
        remove_field => ["message"]  
    }  
}  

output {
    elasticsearch {  
        hosts => ["localhost:9200"]  
	action=>"index"
        #ES索引名称(自定义)
        #index => "%{[appname]}-%{+YYYY.MM.dd}" 
	index => "logs1"
    } 
    stdout{
       codec => json_lines 
    }
}

===========================分割线===========================

以下是紫薯布丁 

        <!--logback集成logstash-->
        <dependency>
            <groupId>net.logstash.logback</groupId>
            <artifactId>logstash-logback-encoder</artifactId>
            <version>4.11</version>
        </dependency>


<appender name="logstash"  class="net.logstash.logback.appender.LogstashTcpSocketAppender">
    <!-- 这里设置logstash的ip地址和监听端口,防火墙放行该端口 -->           
    <destination>192.168.10.2:20001</destination>
    <encoder charset="UTF-8" class="net.logstash.logback.encoder.LogstashEncoder"></encoder>
</appender>
 
 
<root level="debug">
<!-- 在原有的root中加上ref,调用logstash -->
    <appender-ref ref="logstash"/>
</root>
 

input {
  tcp {
    port => 20001
    codec => json_lines
  }
}
 
output {
  stdout{
       codec => json_lines 
    }
 
}

        <encoder class="net.logstash.logback.encoder.LogstashEncoder">
            <providers>
                <timestamp/>
                <version/>
                <message/>
                <loggerName/>
                <threadName/>
                <logLevel/>
                <callerData/>
            </providers>
        </encoder>

input {
    tcp {
    mode => "server"
    #这个需要配置成本机ip,不然logstash无法启动
    host => "127.0.0.1"
    #端口号
    port => 4567
    codec => json_lines
  }

}
filter {  
    json {  
        source => "message"  
        remove_field => ["message"]  
    }  
}  

output {
    elasticsearch {  
        hosts => ["localhost:9200"]  
    action=>"index"
        #ES索引名称(自己定义的)
        #index => "%{[appname]}-%{+YYYY.MM.dd}" 
    index => "logs1"
    } 
    stdout{
       codec => json_lines 
    }
}
 文章来源地址https://www.toymoban.com/news/detail-521799.html

到了这里,关于日志采集 logback集成logstash ELK springboot的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • Logback日志框架使用详解以及如何Springboot快速集成

      日志系统是用于记录程序的运行过程中产生的运行信息、异常信息等,一般有8个级别,从低到高为All Trace Debug Info Warn Error Fatal OFF off 最高等级,用于关闭所有日志记录 fatal 指出每个严重的错误事件将会导致应用程序的退出。 error 指出虽然发生错误事件,但仍然不影响系统

    2024年02月07日
    浏览(31)
  • 实战:ELK环境部署并采集springboot项目日志

    相信作为一个资深的搬砖人,在处理问题的时候免不了查看应用系统日志,且可以根据这个日志日志精准、快速的解决实际的问题。一般情况下我们的系统日志都放置在包的运行目录下面,非常不便于查看和分类。那么。今天我们就引入ELK的日志处理架构来解决它。 ELK组成及

    2024年02月17日
    浏览(31)
  • docker搭建elk环境并实现logstash监听logback,亲测有效!!!

    原因:线上日志太多且没有长期保存,导致问题发现晚点就找不到日志了,当然可以更改日志保存时间,但是还有个问题就是不好查询,需要根据时间去查找到底查询哪个日志文件,于是想到了用elk收集日志,这样就好查询了。 简单了解了一下elk是什么,首先elk是三个中间件

    2024年01月17日
    浏览(39)
  • SpringBoot集成slf4j日志和logback.xml配置详解

    slf4j,即(Simple Logging Facade for Java,简单门面日志)。它是对所有日志框架制定的一种 规范、标准、接口 ,并不是一个框架的具体的实现,它只服务于各种各样的日志系统。 slf4j提供了统一的记录日志的接口,对不同日志系统的具体实现进行了抽象化,只要按照其提供的方法记

    2024年02月03日
    浏览(48)
  • SpringBoot2 集成 ELK 实现日志收集

    目录 一 简介 二 ELK 各组件作用 三 ELK 各组件安装 四 Spring Boot2 集成 logstash  ELK 即 Elasticsearch、Logstash、Kibana 组合起来可以搭建线上日志系统,本文主要讲解使用ELK 来收集 SpringBoot2 应用产生的日志。 Elasticsearch:用于存储收集到的日志信息; Logstash:用于收集日志,SpringBo

    2024年02月06日
    浏览(26)
  • logback 集成 logstash

    相关环境参考: Java 输出 JSON 日志 如果原有配置文件中需要保留一些特殊配置时,需要理解这里的配置才能将配置应用到已有的配置中。 3.1 动态刷新 想要在应用运行时看到修改配置文件后的效果,可以在原有配置添加: 3.2 优雅关机 增加logstash配置后,为了让程序在关闭时

    2024年02月01日
    浏览(24)
  • springboot集成ELK日志分析平台(windows版)

    1.elk是什么? 在安装ELK之前,建议大家先了解一下elk。 ELK 是elastic公司提供的 一套完整的日志收集以及展示的解决方案 ,是三个产品的首字母缩写,分别是ElasticSearch、Logstash 和 Kibana。 ElasticSearch简称ES ,它是一个实时的分布式搜索和分析引擎,它可以用于全文搜索,结构化

    2024年02月11日
    浏览(24)
  • Elasticsearch基本操作+集成SpringBoot+ELK日志平台搭建

    Elasticsearch是一种开源的搜索和分析引擎,最初由开源搜索引擎Lucene的作者于2010年创建。它提供了一个可伸缩、高性能的搜索和数据分析平台,可用于多种用途,包括 文本搜索、应用程序性能监控、业务分析、日志聚合 等。 Elasticsearch使用分布式架构,可以处理大量数据并实

    2024年02月06日
    浏览(51)
  • 统一日志管理方案:Spring项目logback日志与logstash和Elasticsearch整合

    原创/朱季谦 最近在做一个将分布式系统的日志数据通过logstash传到kafka的功能,做完之后决定业余搭一个ELK日志分析系统,将logstash采集到的日志传给Elasticsearch。经过一番捣鼓,也把这个过程给走通了,于是写了这篇总结,可按照以下步骤搭建logstash采集spring日志数据并传输

    2024年02月03日
    浏览(31)
  • ELK-日志服务【logstash-安装与使用】

    目录 【1】安装logstash logstash input 插件的作用与使用方式 【2】input -- stdin插件:从标准输入读取数据,从标准输出中输出内容 【3】input -- file插件:从文件中读取数据 【4】input -- beat插件:从filebeat中读取数据,然后标准输出 【5】input -- kafka插件:从kafka中读取数据 logstash

    2024年02月16日
    浏览(29)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包