ELK常见部署架构以及出现的问题及解决方案

这篇具有很好参考价值的文章主要介绍了ELK常见部署架构以及出现的问题及解决方案。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

ELK常见部署架构以及出现的问题及解决方案

ELK 已经成为目前最流行的集中式日志解决方案,它主要是由BeatsLogstashElasticsearch

Kibana 等组件组成,来共同完成实时日志的收集,存储,展示等一站式的解决方案。本文将会介绍ELK常见的架

构以及相关问题解决。

Filebeat :Filebeat是一款轻量级,占用服务资源非常少的数据收集引擎,它是ELK家族的新成员,可以代替

Logstash作为在应用服务器端的日志收集引擎,支持将收集到的数据输出到Kafka,Redis等队列。

Logstash :数据收集引擎,相较于Filebeat比较重量级,但它集成了大量的插件,支持丰富的数据源收集,

对收集的数据可以过滤,分析,格式化日志格式。

Elasticsearch :分布式数据搜索引擎,基于Apache Lucene实现,可集群,提供数据的集中式存储,分析,

以及强大的数据搜索和聚合功能。

Kibana :数据的可视化平台,通过该web平台可以实时的查看 Elasticsearch 中的相关数据,并提供了丰富

的图表统计功能。

1、ELK常见部署架构

1.1 Logstash作为日志收集器

这种架构是比较原始的部署架构,在各应用服务器端分别部署一个Logstash组件,作为日志收集器,然后将

Logstash收集到的数据过滤、分析、格式化处理后发送至Elasticsearch存储,最后使用Kibana进行可视化展示。

这种架构不足的是:Logstash比较耗服务器资源,所以会增加应用服务器端的负载压力。

ELK常见部署架构以及出现的问题及解决方案,elasticsearch,elasticsearch

1.2 Filebeat作为日志收集器

该架构与第一种架构唯一不同的是:应用端日志收集器换成了Filebeat,Filebeat轻量,占用服务器资源少,所以

使用Filebeat作为应用服务器端的日志收集器,一般Filebeat会配合Logstash一起使用,这种部署方式也是目前最

常用的架构。

ELK常见部署架构以及出现的问题及解决方案,elasticsearch,elasticsearch

1.3 引入缓存队列的部署架构

该架构在第二种架构的基础上引入了Kafka消息队列(还可以是其他消息队列),将Filebeat收集到的数据发送至

Kafka,然后在通过Logstasth读取Kafka中的数据,这种架构主要是解决大数据量下的日志收集方案,使用缓存队

列主要是解决数据安全与均衡Logstash与Elasticsearch负载压力。

ELK常见部署架构以及出现的问题及解决方案,elasticsearch,elasticsearch

1.4 以上三种架构的总结

第一种部署架构由于资源占用问题,现已很少使用,目前使用最多的是第二种部署架构,至于第三种部署架构个人

觉得没有必要引入消息队列,除非有其他需求,因为在数据量较大的情况下,Filebeat 使用压力敏感协议向

Logstash 或 Elasticsearch 发送数据。

如果 Logstash 正在繁忙地处理数据,它会告知 Filebeat 减慢读取速度。拥塞解决后,Filebeat 将恢复初始速度并

继续发送数据。

2、问题及解决方案

2.1 如何实现日志的多行合并功能?

系统应用中的日志一般都是以特定格式进行打印的,属于同一条日志的数据可能分多行进行打印,那么在使用ELK

收集日志的时候就需要将属于同一条日志的多行数据进行合并。

解决方案:使用Filebeat或Logstash中的multiline多行合并插件来实现

在使用multiline多行合并插件的时候需要注意,不同的ELK部署架构可能multiline的使用方式也不同,如果是本

文的第一种部署架构,那么multiline需要在Logstash中配置使用,如果是第二种部署架构,那么multiline需要

在Filebeat中配置使用,无需再在Logstash中配置multiline

1、multiline在Filebeat中的配置方式:

filebeat.prospectors:
    -
     paths:
          - /home/project/elk/logs/test.log
     input_type: log
     multiline:
      pattern: '^\['
      negate: true
      match: after
output:
   logstash:
      hosts: ["localhost:5044"]
  • pattern:正则表达式
  • negate:默认为false,表示匹配pattern的行合并到上一行;true表示不匹配pattern的行合并到上一行
  • match:after表示合并到上一行的末尾,before表示合并到上一行的行首

如:

pattern: '\['
negate: true
match: after

该配置表示将不匹配pattern模式的行合并到上一行的末尾。

2、multiline在Logstash中的配置方式

input {
    beats {
    port => 5044
}
}

filter {
    multiline {
        pattern => "%{LOGLEVEL}\s*\]"
        negate => true
        what => "previous"
    }
}

output {
    elasticsearch {
    hosts => "localhost:9200"
    }
}

(1)Logstash中配置的what属性值为previous,相当于Filebeat中的after,Logstash中配置的what属性值为

next,相当于Filebeat中的before。

(2)pattern => "%{LOGLEVEL}\s*\]" 中的LOGLEVEL 是Logstash预制的正则匹配模式,预制的还有好多常

用的正则匹配模式,详细请看:

https://github.com/logstash-plugins/logstash-patterns-core/tree/master/patterns

2.2 如何将Kibana中显示日志的时间字段替换为日志信息中的时间?

默认情况下,我们在Kibana中查看的时间字段与日志信息中的时间不一致,因为默认的时间字段值是日志收集时

的当前时间,所以需要将该字段的时间替换为日志信息中的时间。

解决方案:使用grok分词插件与date时间格式化插件来实现

Logstash的配置文件的过滤器中配置grok分词插件与date时间格式化插件,如:

input {
    beats {
    port => 5044
    }
}

filter {
    multiline {
        pattern => "%{LOGLEVEL}\s*\]\[%{YEAR}%{MONTHNUM}%{MONTHDAY}\s+%{TIME}\]"
        negate => true
        what => "previous"
}

# 时间格式配置
grok {
 match => [ "message" , "(?<customer_time>%{YEAR}%{MONTHNUM}%{MONTHDAY}\s+%{TIME})" ]
}

# 时间格式配置
date {
	 # 格式化时间
     match => ["customer_time", "yyyyMMdd HH:mm:ss,SSS"]
     # 替换默认的时间字段
     target => "@timestamp"
    }
}

output {
    elasticsearch {
    hosts => "localhost:9200"
    }
}

如要匹配的日志格式为:

[DEBUG][20170811 10:07:31,359][DefaultBeanDefinitionDocumentReader:106] Loading bean definitions

解析出该日志的时间字段的方式有:

①、通过引入写好的表达式文件,如表达式文件为./customer-patterms/mypatterns,内容为:

CUSTOMER_TIME %{YEAR}%{MONTHNUM}%{MONTHDAY}\s+%{TIME}

注: 内容格式为:[自定义表达式名称] [正则表达式]

然后logstash中就可以这样引用:

filter {
    grok {
    # 引用表达式文件路径
    patterns_dir => ["./customer-patterms/mypatterns"]
    # 使用自定义的grok表达式
    match => [ "message" , "%{CUSTOMER_TIME:customer_time}" ]
    }
}

②、以配置项的方式,规则为:(?<自定义表达式名称>正则匹配规则),如:

filter {
    grok {
    match => [ "message" , "(?<customer_time>%{YEAR}%{MONTHNUM}%{MONTHDAY}\s+%{TIME})" ]
    }
}

2.3 如何在Kibana中通过选择不同的系统日志模块来查看数据?

一般在Kibana中显示的日志数据混合了来自不同系统模块的数据,那么如何来选择或者过滤只查看指定的系统模

块的日志数据?

解决方案:新增标识不同系统模块的字段或根据不同系统模块建ES索引

1、新增标识不同系统模块的字段,然后在Kibana中可以根据该字段来过滤查询不同模块的数据,这里以第二种部

署架构讲解,在Filebeat中的配置内容为:

filebeat.prospectors:
    -
   paths:
  - /home/project/elk/logs/account.log
   input_type: log
     multiline:
      pattern: '^\['
      negate: true
      match: after
   fields: 
      log_from: account

    -
   paths:
  - /home/project/elk/logs/customer.log
   input_type: log
   multiline:
      pattern: '^\['
      negate: true
      match: after
   fields:
      log_from: customer

output:
   logstash:
      hosts: ["localhost:5044"]

通过新增:log_from字段来标识不同的系统模块日志

2、根据不同的系统模块配置对应的ES索引,然后在Kibana中创建对应的索引模式匹配,即可在页面通过索引模式

下拉框选择不同的系统模块数据。

filebeat.prospectors:
    -
   paths:
  - /home/project/elk/logs/account.log
     input_type: log
     multiline:
      pattern: '^\['
      negate: true
      match: after
   fields: 
      log_from: account
    -
   paths:
  - /home/project/elk/logs/customer.log
   input_type: log
   multiline:
      pattern: '^\['
      negate: true
      match: after
   fields:
      log_from: customer
output:
   logstash:
      hosts: ["localhost:5044"]

通过新增:log_from字段来标识不同的系统模块日志

这里以第二种部署架构讲解,分为两步:

①、在Filebeat中的配置内容为:

filebeat.prospectors:
    -
     paths:
      - /home/project/elk/logs/account.log
     input_type: log
     multiline:
       pattern: '^\['
       negate: true
       match: after
     document_type: account

    -
     paths:
      - /home/project/elk/logs/customer.log
     input_type: log
     multiline:
       pattern: '^\['
       negate: true
       match: after
     document_type: customer
output:
    logstash:
    hosts: ["localhost:5044"]

通过document_type来标识不同系统模块

②、修改Logstashoutput的配置内容为:

output {
    elasticsearch {
    hosts => "localhost:9200"
    index => "%{type}"
    }
}

output中增加index属性,%{type}表示按不同的document_type值建ES索引

3、总结

本文主要介绍了ELK实时日志分析的三种部署架构,以及不同架构所能解决的问题,这三种架构中第二种部署方式

是时下最流行也是最常用的部署方式。

最后介绍了ELK作在日志分析中的一些问题与解决方案,说在最后,ELK不仅仅可以用来作为分布式日志数据集中

式查询和管理,还可以用来作为项目应用以及服务器资源监控等场景,更多内容请看官网。文章来源地址https://www.toymoban.com/news/detail-643428.html

到了这里,关于ELK常见部署架构以及出现的问题及解决方案的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • Element-UI表格嵌入popover出现的问题以及解决方案

    最近几天遇到一个比较棘手的问题,需求是在触发表格某一列的cell,弹窗展示新的数据(不是表格内的数据,而是需要重新向后端请求) 我这里使用了popover展示弹窗 代码是删减过的,为了更清楚地记录,有些这里没有用到的代码就删了 1. 触发方式是hover(写在popover的trig

    2024年02月16日
    浏览(39)
  • 【C4D】OC渲染器常见问题以及解决方案

    很多刚入坑的朋友,在安装或者打开oc时总是会遇到渲染器报错的问题。今天我也给大家总结了几个最常见的的oc报错以及解决方式,强烈建议收藏,一定会有用得上的时候! 如果oc提示这样的弹框,说明你需要在OC的设置中勾选试用GPU设备. 解决方案:OC设置中-设备-勾选用

    2024年02月04日
    浏览(374)
  • Elasticsearch部署中的两大常见问题及其解决方案

    随着大数据和实时搜索的日益普及,Elasticsearch已经成为现代应用中不可或缺的工具。但是,像所有软件一样,部署和配置Elasticsearch可能会遇到一些问题。本文将探讨两个我最近遇到的常见问题及其解决方案。 在启动Elasticsearch时,我遇到了以下错误: failed to resolve host [“l

    2024年02月06日
    浏览(54)
  • Vue配合Nginx部署出现404、页面无法跳转、后端请求失败问题解决方案

    常见问题有: 1、部署后,打开地址可以看到,但是刷新后出现404。 2、Vue的路由资源并不一定是真实路径,导致页面无法跳转或其他资源加载问题。 3、请求后端接口地址失败。

    2024年02月13日
    浏览(52)
  • 如何搭建自己的V Rising自建服务器,以及常见的V Rising服务器问题解决方案

    V rising官方服务器经常无法连接,无法和小伙伴玩耍;如何搭建自己的V rising服务器呢?还可以修改掉落倍率,加快游戏进度,搭建自己的私人服务器。 最近V rising这个游戏很火呀,迫不及待地和小伙伴一起玩;但是,V rising官方的服务器实在是太不稳定:延时高、丢包率高,

    2023年04月18日
    浏览(43)
  • 设计师需要掌握的网站设计相关知识、技巧、工具以及在建站过程中遇到的常见问题和解决方案

    作者:禅与计算机程序设计艺术 “一个设计师的手册:关于网站设计的一切你需要知道”,本文全面系统地介绍了设计师需要掌握的网站设计相关知识、技巧、工具以及在建站过程中遇到的常见问题和解决方案,从基础知识到常用效果、细节调整、模板制作、SEO优化,都有详

    2024年02月06日
    浏览(55)
  • 程序采用Jenkins 持续集成部署、发布以及常见问题、解决办法列表

        如果不采用工具的话,网站的发布更新是一个简单但麻烦的事情,在这个方面,jenkins是一个很好用的工具。Jenkins是基于Java开发的一种持续集成工具,用于监控持续重复的工作,包括持续的软件版本发布/测试项目。并可监控外部调用执行的工作。今天在本博客平台上部

    2024年04月25日
    浏览(48)
  • 如何在linux服务器部署pgsql,安全版以及可能出现各种问题解决(保姆级教程)

    提示:市面上那些在linux服务器部署pgsql好多都是水货,效果良莠不齐,笔者花了两天时间成功部署了pgsql,记录下方便自己以后部署,也方便其他有需要的码农 服务器环境: postgresql版本 坚决不要通过镜像下载,道路千万条,安全第一条,镜像源不一定安全,自己老老实实去

    2023年04月08日
    浏览(45)
  • Java 常见缓存详解以及解决方案

    首先我们准备一个接口 两个实现的方法, 当我们调用这个queryAll()方法时我们需要调用selectAll()方法来查询数据  调用此接口实现效果  这个时候我们就可以发现了问题,我们调用方法之后对数据库查询了两次,但是只有一次请求这样进行了多次查询,造成了资源的浪费

    2024年01月25日
    浏览(39)
  • 微服务: 00-rabbitmq出现的异常以及解决方案

    目录 前言: 问题概述:  1. rabbitmq初始安装配置异常  - 1.1 rabbitmq报您与此网站连接不是私密连接 ---1.1.1 上述问题解决方案 --- 1.1.2 依次执行下面代码  - 1.2 解决用户的No access情况 - 1.2.1 使用设置的账号密码进行登录  - 1.2.2  点击 Admin功能 查看用户列表  - 1.2.3 查看用户情况情

    2024年02月13日
    浏览(31)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包