ELK日志收集系统(四十九)

这篇具有很好参考价值的文章主要介绍了ELK日志收集系统(四十九)。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档

目录

前言

一、概述

二、组件

1. elasticsearch

2. logstash

2.1 工作过程

2.2 INPUT

2.3  FILETER

2.4  OUTPUTS

3. kibana

三、架构类型

3.1 ELK

3.2 ELKK

3.3 ELFK

3.5 EFK

四、案例



前言

ELK日志收集系统是一种常用的开源系统,由三个主要组件组成:Elasticsearch、Logstash和Kibana。

  • Elasticsearch是一个基于Lucene的分布式搜索和分析引擎,用于存储和索引大量数据。它能够快速地搜索和分析大规模的日志数据,并支持实时的数据查询和聚合分析。

  • Logstash是一个用于数据收集、处理和传输的工具。它能够从各种来源(如文件、数据库、消息队列等)收集日志数据,并对其进行过滤、转换和标准化处理,然后将数据发送给Elasticsearch进行存储和索引。

  • Kibana是一个用于数据可视化和分析的工具。它提供了用户友好的界面,可以通过图表、表格、仪表盘等方式展示和分析存储在Elasticsearch中的日志数据。用户可以使用Kibana进行数据查询、聚合、筛选和导出,并可以自定义仪表盘和报告。

ELK日志收集系统能够帮助企业集中收集、存储和分析各种类型的日志数据,提供实时的监控、诊断和故障排查能力,帮助提高系统的稳定性和性能。它还支持可扩展性和高可用性,并提供了丰富的插件和扩展机制,可以与其他工具和系统集成。


提示:以下是本篇文章正文内容,下面案例可供参考

一、概述

ELK由三个组件构成
    作用
        日志收集
        日志分析
        日志可视化
    为什么使用?
        日志对于分析系统、应用的状态十分重要,但一般日志的量会比较大,并且比较分散。
        如果管理的服务器或者程序比较少的情况我们还可以逐一登录到各个服务器去查看、分析。但如果服务器或者程序的数量比较多了之后这种方法就显得力不从心。基于此,一些集中式的日志系统也就应用而生。目前比较有名成熟的有,Splunk(商业)、FaceBook 的Scribe、Apache的Chukwa Cloudera的Fluentd、还有ELK等等。

二、组件

1. elasticsearch

日志分析
    开源的日志收集、分析、存储程序
    特点
        分布式
        零配置
        自动发现
        索引自动分片
        索引副本机制
        Restful风格接口
        多数据源
        自动搜索负载

2. logstash

日志收集
 搜集、分析、过滤日志的工具

2.1 工作过程

一般工作方式为c/s架构,Client端安装在需要收集日志的服务器上,Server端负责将收到的各节点日志进行过滤、修改等操作,再一并发往Elasticsearch上去
        Inputs → Filters → Outputs
        输入-->过滤-->输出

2.2 INPUT

File:从文件系统的文件中读取,类似于tail -f命令

Syslog:在514端口上监听系统日志消息,并根据RFC3164标准进行解析

(要使用 Logstash 从 Syslog 中读取数据,您可以按照以下步骤进行配置:

   1. 创建 Logstash 配置文件:使用任意文本编辑器创建一个新的配置文件(例如 `syslog.conf`)。

   2. 配置 Syslog 输入插件:在配置文件中添加以下内容,以配置 Logstash 从 Syslog 中读取数据:

   ```yaml
   input {
     syslog {
       port => 514  # Syslog 默认的监听端口号为 514,请根据实际情况进行修改
       type => "syslog"
     }
   }
   ```

   这将配置 Logstash 使用 Syslog 输入插件监听默认的 Syslog 端口号(514),并使用 "syslog" 类型标记这些事件。

   3. 可选的过滤器和输出配置:根据您的需求,您可以添加额外的过滤器或输出插件来处理从 Syslog 读取的数据。根据您的具体需求进行相应的配置。

   4. 启动 Logstash:导航到 Logstash 的安装目录,并运行以下命令以启动 Logstash 并加载 Syslog 配置:

   ```bash
   bin/logstash -f path/to/syslog.conf
   ```

   请确保将 `path/to/syslog.conf` 替换为实际的配置文件路径。

启动 Logstash 后,它将监听来自 Syslog 的数据并进行处理。请确保 Logstash 能够接收 Syslog 数据,并且防火墙或网络配置允许 Logstash 与 Syslog 进行通信。如果您使用的是默认端口 514,请确保没有其他服务占用该端口。如有需要,可以修改 Logstash 配置文件中的端口设置来与 Syslog 配置一致。)

Redis:从redis service中读取(要使用Logstash从Redis中读取数据,您可以按照以下步骤设置Logstash配置:

   1. 安装Logstash和Redis插件:首先,确保已在系统上安装了Logstash,并在Logstash的安装目录 下运行以下命令安装Redis插件:

   ```
   bin/logstash-plugin install logstash-input-redis
   ```

   2. 创建Logstash配置文件:创建一个新的配置文件(例如`redis.conf`),并使用任意文本编辑器打开。

    3. 配置Redis输入插件:在配置文件中添加以下内容,以配置Logstash从Redis中读取数据:

   ```
   input {
     redis {
       host => "localhost"   # Redis主机地址,根据您的配置进行更改
       port => 6379          # Redis端口,根据您的配置进行更改
       data_type => "list"   # Redis数据类型,例如list、channel、pattern等
       key => "your_key"     # Redis数据键名,根据您的配置进行更改
     }
   }
   ```

   注意,这只是一个基本的配置示例,请根据您的Redis主机地址、端口、数据类型和键名进行相应的更改。

     4. 配置Logstash输出:根据您的需求,您可以添加其他输出插件(如Elasticsearch、文件输出)
Beats:从filebeat中读取(要使 Logstash 从其他主机的 Filebeat 读取数据,您需要进行以下配置:

1. 在 Filebeat 上配置 Logstash 输出:编辑 Filebeat 的配置文件(通常是 `filebeat.yml`)并添加 Logstash 输出的配置。确保将 `output.logstash.hosts` 设置为 Logstash 主机的 IP 地址或主机名,如下所示:

   ```yaml
   output.logstash:
     hosts: ["logstash_host:5044"]
   ```

   将 `logstash_host` 替换为实际的 Logstash 主机地址。确保配置中的端口号 `5044` 与 Logstash 监听的端口一致。

2. 在 Logstash 上配置 Filebeat 输入:创建一个新的 Logstash 配置文件(例如 `filebeat.conf`),并使用文本编辑器打开。在配置文件中添加以下内容:

   ```yaml
   input {
     beats {
       port => 5044 # 设置 Logstash 监听的端口与 Filebeat 配置中一致
     }
   }
   ```

   这将指示 Logstash 监听 Filebeat 发送的数据。

3. 可选的过滤器和输出配置:根据您的需求,您可以添加额外的过滤器或输出插件来处理从 Filebeat 读取的数据。根据您的具体需求进行相应的配置。

4. 启动 Logstash:导航到 Logstash 的安装目录并运行以下命令以启动 Logstash 并加载 Filebeat 配置:

   ```bash
   bin/logstash -f path/to/filebeat.conf
   ```

   请确保将 `path/to/filebeat.conf` 替换为实际的配置文件路径。

启动 Logstash 后,它将监听来自其他主机上 Filebeat 的数据,并根据配置进行处理。请确保 Logstash 能够访问其他主机上的 Filebeat,并且防火墙或网络配置允许 Logstash 与 Filebeat 进行通信)

2.3  FILETER

Grok:解析任意文本数据,Grok 是 Logstash 最重要的插件。它的主要作用就是将文本格式的字符串,转换成为具体的结构化的数据,配合正则表达式使用。
          官方提供的grok表达式:logstash-patterns-core/patterns at main · logstash-plugins/logstash-patterns-core · GitHub
          Grok在线调试:Grok Debugger
          Mutate:对字段进行转换。例如对字段进行删除、替换、修改、重命名等。
          Drop:丢弃一部分Events不进行处理。
          Clone:拷贝Event,这个过程中也可以添加或移除字段。
          Geoip:添加地理信息(为前台kibana图形化展示使用)

2.4  OUTPUTS

               Elasticsearch:可以高效的保存数据,并且能够方便和简单的进行查询。
          File:将Event数据保存到文件中。
          Graphite:将Event数据发送到图形化组件中,踏实一个当前较流行的开源存储图形化展示的组件。

3. kibana

日志可视化
        Grafana
    为Logstash和ElasticSearch在收集、存储的日志基础上进行分析时友好的Web界面,可以帮助汇总、分析和搜索重要数据日志。

三、架构类型

3.1 ELK

        es
        logstash
        kibana

3.2 ELKK

        es
        logstash
        kafka
        kibana

3.3 ELFK

        es
        logstash   重量级
                        占用系统资源较多
        filebeat    轻量级
                       占用系统资源较少
        kibana

3.4 ELFKK

        es
        logstash
        filebeat
        kafka
        kibana

3.5 EFK

        es
        logstash
        fluentd
        kafka
        kibana

四、案例

ELK日志收集系统集群实验

1.实验拓扑

ELK日志收集系统(四十九),lq 云计算运维学习,linux,运维,云计算

2. 环境配置

设置各个主机的IP地址为拓扑中的静态IP,在两个节点中修改主机名为node1和node2并设置hosts文件

node1:

hostnamectl set-hostname node1

vim /etc/hosts

192.168.156.11  node1

192.168.156.12  node2

ELK日志收集系统(四十九),lq 云计算运维学习,linux,运维,云计算

node2:

hostnamectl set-hostname node2

vim /etc/hosts

192.168.156.11  node1

192.168.156.12  node2

ELK日志收集系统(四十九),lq 云计算运维学习,linux,运维,云计算

3.  安装node1与node2节点的elasticsearch

安装

 rpm -ivh elasticsearch-5.5.0.rpm

ELK日志收集系统(四十九),lq 云计算运维学习,linux,运维,云计算

配置

node1:

vim /etc/elasticsearch/elasticsearch.yml

cluster.name:my-elk-cluster  //集群名称   

node.name:node1 //节点名字

path.data:/var/lib/elasticsearch  //数据存放路径

path.logs: /var/log/elasticsearch/  //日志存放路径

bootstrap.memory_lock:false //在启动的时候不锁定内存

network.host:192.168.56.11  //提供服务绑定的IP地址,0.0.0.0代表所有地址

http.port:9200 //侦听端口为9200

discovery.zen.ping.unicast.hosts:【"node1","node2"】 //群集发现通过单播实现

ELK日志收集系统(四十九),lq 云计算运维学习,linux,运维,云计算ELK日志收集系统(四十九),lq 云计算运维学习,linux,运维,云计算ELK日志收集系统(四十九),lq 云计算运维学习,linux,运维,云计算ELK日志收集系统(四十九),lq 云计算运维学习,linux,运维,云计算ELK日志收集系统(四十九),lq 云计算运维学习,linux,运维,云计算ELK日志收集系统(四十九),lq 云计算运维学习,linux,运维,云计算

node2:

vim /etc/elasticsearch/elasticsearch.yml

cluster.name:my-elk-cluster  //集群名称   

node.name:node2 //节点名字

path.data:/var/lib/elasticsearch  //数据存放路径

path.logs: /var/log/elasticsearch/  //日志存放路径

bootstrap.memory_lock:false //在启动的时候不锁定内存

network.host:192.168.156.12  //提供服务绑定的IP地址,0.0.0.0代表所有地址

http.port:9200 //侦听端口为9200

discovery.zen.ping.unicast.hosts:【"node1","node2"】 //群集发现通过单播实现

ELK日志收集系统(四十九),lq 云计算运维学习,linux,运维,云计算ELK日志收集系统(四十九),lq 云计算运维学习,linux,运维,云计算ELK日志收集系统(四十九),lq 云计算运维学习,linux,运维,云计算ELK日志收集系统(四十九),lq 云计算运维学习,linux,运维,云计算ELK日志收集系统(四十九),lq 云计算运维学习,linux,运维,云计算

启动elasticsearch服务

node1和node2

systemctl start elasticsearch

ELK日志收集系统(四十九),lq 云计算运维学习,linux,运维,云计算ELK日志收集系统(四十九),lq 云计算运维学习,linux,运维,云计算

查看节点信息

http://192.168.156.11:9200

http://192.168.156.12:9200

ELK日志收集系统(四十九),lq 云计算运维学习,linux,运维,云计算

ELK日志收集系统(四十九),lq 云计算运维学习,linux,运维,云计算

查看集群健康状态:

http://192.168.115.3:9200/_cluster/health

Green 健康   yellow  警告    red  集群不可用,严重错误

ELK日志收集系统(四十九),lq 云计算运维学习,linux,运维,云计算

4. 在node1安装elasticsearch-head插件

tar xf node-v8.2.1.tar.gz

cd node-v8.2.1

./configure && make && make install

ELK日志收集系统(四十九),lq 云计算运维学习,linux,运维,云计算ELK日志收集系统(四十九),lq 云计算运维学习,linux,运维,云计算ELK日志收集系统(四十九),lq 云计算运维学习,linux,运维,云计算

等待安装完毕。

安装完毕后会生成命令:npm

拷贝命令

tar xf phantomjs-2.1.1-linux-x86_64.tar.bz2

cd phantomjs-2.1.1-linux-x86_64/bin

cp phantomjs  /usr/local/bin

ELK日志收集系统(四十九),lq 云计算运维学习,linux,运维,云计算ELK日志收集系统(四十九),lq 云计算运维学习,linux,运维,云计算ELK日志收集系统(四十九),lq 云计算运维学习,linux,运维,云计算ELK日志收集系统(四十九),lq 云计算运维学习,linux,运维,云计算

安装elasticsearch-head

tar xf elasticsearch-head.tar.gz

cd elasticsearch-head

npm install

ELK日志收集系统(四十九),lq 云计算运维学习,linux,运维,云计算ELK日志收集系统(四十九),lq 云计算运维学习,linux,运维,云计算

修改elasticsearch配置文件

vim /etc/elasticsearch/elasticsearch.yml

添加   http.cors.enabled: true  //开启跨域访问支持,默认为false

          http.cors.allow-origin: "*"  //跨域访问允许的域名地址

ELK日志收集系统(四十九),lq 云计算运维学习,linux,运维,云计算ELK日志收集系统(四十九),lq 云计算运维学习,linux,运维,云计算

启动elasticsearch-head

cd elasticsearch-head

npm run start &

ELK日志收集系统(四十九),lq 云计算运维学习,linux,运维,云计算ELK日志收集系统(四十九),lq 云计算运维学习,linux,运维,云计算

查看监听: netstat -anput | grep :9100

ELK日志收集系统(四十九),lq 云计算运维学习,linux,运维,云计算

访问:

http://192.168.156.11:9100

ELK日志收集系统(四十九),lq 云计算运维学习,linux,运维,云计算

测试

在node1的终端中输入:

curl  -XPUT  'localhost:9200/index-demo/test/1?pretty&pretty' -H  'Content-Type: application/json' -d '{"user":"zhangsan","mesg":"hello world"}'

ELK日志收集系统(四十九),lq 云计算运维学习,linux,运维,云计算

刷新浏览器可以看到对应信息即可

ELK日志收集系统(四十九),lq 云计算运维学习,linux,运维,云计算

ELK日志收集系统(四十九),lq 云计算运维学习,linux,运维,云计算

node1服务器安装logstash

rpm -ivh logstash-5.5.1.rpm

systemctl start logstash.service

ELK日志收集系统(四十九),lq 云计算运维学习,linux,运维,云计算

In -s /usr/share/logstash/bin/logstash  /usr/local/bin/

ELK日志收集系统(四十九),lq 云计算运维学习,linux,运维,云计算

测试1: 标准输入与输出

logstash -e 'input{ stdin{} }output { stdout{} }'

ELK日志收集系统(四十九),lq 云计算运维学习,linux,运维,云计算

测试2: 使用rubydebug解码

logstash -e 'input { stdin{} } output { stdout{ codec=>rubydebug }}'

ELK日志收集系统(四十九),lq 云计算运维学习,linux,运维,云计算

测试3:输出到elasticsearch

ELK日志收集系统(四十九),lq 云计算运维学习,linux,运维,云计算

  查看结果:

http://192.168.156.11:9100

ELK日志收集系统(四十九),lq 云计算运维学习,linux,运维,云计算

logstash日志收集文件格式

Logstash配置文件基本由三部分组成:input、output以及 filter(根据需要)。标准的配置文件格式如下:

input (...)  输入

filter {...}   过滤

output {...}  输出

在每个部分中,也可以指定多个访问方式。例如,若要指定两个日志来源文件,则格式如下:

input {

file{path =>"/var/log/messages" type =>"syslog"}

file { path =>"/var/log/apache/access.log"  type =>"apache"}

}

案例:通过logstash收集系统信息日志

chmod o+r /var/log/messages

vim /etc/logstash/conf.d/system.conf

    input {

    file{

    path =>"/var/log/messages" 

    type => "system"

    start_position => "beginning"

    }

    }

    output {

    elasticsearch{

    hosts =>["192.168.1.1:9200"]

    index => "system-%{+YYYY.MM.dd}"

    }

    }

ELK日志收集系统(四十九),lq 云计算运维学习,linux,运维,云计算

ELK日志收集系统(四十九),lq 云计算运维学习,linux,运维,云计算

重启日志服务: systemctl restart logstash

ELK日志收集系统(四十九),lq 云计算运维学习,linux,运维,云计算

查看日志: http://192.168.156.11:9100

ELK日志收集系统(四十九),lq 云计算运维学习,linux,运维,云计算

node1节点安装kibana

rpm -ivh kibana-5.5.1-x86_64.rpm

ELK日志收集系统(四十九),lq 云计算运维学习,linux,运维,云计算

配置kibana

vim /etc/kibana/kibana.yml

server.port:5601  //Kibana打开的端口

server.host:"0.0.0.0" //Kibana侦听的地址

elasticsearch.url: "http://192.168.8.134:9200"  

//和Elasticsearch 建立连接

kibana.index:".kibana"  //在Elasticsearch中添加.kibana索引

ELK日志收集系统(四十九),lq 云计算运维学习,linux,运维,云计算

ELK日志收集系统(四十九),lq 云计算运维学习,linux,运维,云计算

启动kibana

systemctl start kibana

ELK日志收集系统(四十九),lq 云计算运维学习,linux,运维,云计算ELK日志收集系统(四十九),lq 云计算运维学习,linux,运维,云计算

访问kibana :

http://192.168.156.11:5601

ELK日志收集系统(四十九),lq 云计算运维学习,linux,运维,云计算

首次访问需要添加索引,我们添加前面已经添加过的索引:system-*

ELK日志收集系统(四十九),lq 云计算运维学习,linux,运维,云计算

企业案例:

收集httpd访问日志信息

在httpd服务器上安装logstash,参数上述安装过程,可以不进行测试

logstash在httpd服务器上作为agent(代理),不需要启动

ELK日志收集系统(四十九),lq 云计算运维学习,linux,运维,云计算ELK日志收集系统(四十九),lq 云计算运维学习,linux,运维,云计算ELK日志收集系统(四十九),lq 云计算运维学习,linux,运维,云计算

编写httpd日志收集配置文件

vim /etc/logstash/conf.d/httpd.conf

input {

file{

path=>"/var/log/httpd/access_log" //收集Apache访问日志

type => "access" //类型指定为 access

start_position => "beginning" //从开始处收集

}

output{

elasticsearch {

hosts =>["192.168.156.11:9200"] // elasticsearch 监听地址及端口

index =>"httpd_access-%{+YYYY.MM.dd}" //指定索引格式

}

}

ELK日志收集系统(四十九),lq 云计算运维学习,linux,运维,云计算

ELK日志收集系统(四十九),lq 云计算运维学习,linux,运维,云计算

使用logstash命令导入配置:

logstash -f  /etc/logstash/conf.d/httpd.conf

ELK日志收集系统(四十九),lq 云计算运维学习,linux,运维,云计算

使用kibana查看即可! http://192.168.156.11:5601   查看时在mangement选项卡创建索引httpd_access-*  即可!

ELK日志收集系统(四十九),lq 云计算运维学习,linux,运维,云计算

ELK日志收集系统(四十九),lq 云计算运维学习,linux,运维,云计算

  文章来源地址https://www.toymoban.com/news/detail-692361.html

到了这里,关于ELK日志收集系统(四十九)的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • ELK日志收集系统

    ELK由三个组件构成 作用:日志收集 日志分析 日志可视化     日志分析     开源的日志收集、分析、存储程序     特点         分布式         零配置         自动发现         索引自动分片         索引副本机制         Restful风格接口         多数据源

    2024年02月10日
    浏览(37)
  • ELK (一)部署ELK+Filebeat日志收集分析系统

    说明:此安装流程只适用于8.0.0以下的版本 1.1 下载ElasticSearch的wget指令: 1.2 解压安装包到指定目录 指定解压缩到 /usr/local 目录下 1.3 修改配置文件 (1)elasticsearch.yml 分别创建 path.data、path.logs 对应的 data、logs文件夹。 详细配置: (2)limits.conf 末尾追加以下内容: (3)s

    2024年02月08日
    浏览(48)
  • ELK 日志系统收集K8s中日志

    • K8s弹性伸缩性:导致不能预先确定采集的目标 • 容器隔离性:容器的文件系统与宿主机是隔离,导致日志采集器读取日志文件受阻。 应用程序日志记录体现方式分为两类: • 标准输出:输出到控制台,使用kubectl logs可以看到。 例如 nginx日志是将访问日志输出到标准输出

    2024年02月09日
    浏览(33)
  • ELK+Kafka+Zookeeper日志收集系统

    节点IP 节点规划 主机名 192.168.112.3 Elasticsearch + Kibana + Logstash + Zookeeper + Kafka + Nginx elk-node1 192.168.112.3 Elasticsearch + Logstash + Zookeeper + Kafka elk-node2 192.168.112.3 Elasticsearch + Logstash + Zookeeper + Kafka + Nginx elk-node3 修改主机名 配置映射 安装Elasticserach 三台主机都需安装java及elasticserach 启动

    2024年04月18日
    浏览(67)
  • 【分布式技术】ELK大型日志收集分析系统

    目录 步骤一:完成JAVA环境部署 步骤二:部署ES节点(三台主机) 步骤三:内核参数修改 步骤四:web端查看验证 步骤五:yum安装nginx  步骤六:完成logstash部署 步骤七:部署kibana  步骤八:测试ELK

    2024年01月20日
    浏览(46)
  • 部署ELK+Kafka+Filebeat日志收集分析系统

    ELK是三个软件的统称,即Elasticsearch、Logstash和Kibana三个开源软件的缩写。这三款软件都是开源软件,通常配合使用,并且都先后归于Elastic.co企业名下,故被简称为ELK协议栈。ELK主要用于部署在企业架构中,收集多台设备上多个服务的日志信息,并将其统一整合后提供给用户。

    2024年02月16日
    浏览(41)
  • ELK日志收集系统集群实验(5.5.0版)

    目录 前言 一、概述 二、组件介绍 1、elasticsearch 2、logstash 3、kibana 三、架构类型 四、ELK日志收集集群实验 1、实验拓扑 2、在node1和node2节点安装elasticsearch 3、启动elasticsearch服务 4、在node1安装elasticsearch-head插件 5、测试输入 6、node1服务器安装logstash 7、logstash日志收集文件格式

    2024年02月10日
    浏览(39)
  • 运维必备——ELK日志分析系统

    前些天发现了一个巨牛的人工智能学习网站,内容通俗易懂、风趣幽默,忍不住想分享一下。对人工智能感兴趣的同学可以去看看哦 点击跳转到网站。 通常来说,日志被分散的存储在各自的不同的设备上,如果说需要管理上百台机器,那么就需要使用传统的方法依次登录这

    2023年04月11日
    浏览(42)
  • 分布式技术--------------ELK大规模日志实时收集分析系统

    目录 一、ELK日志分析系统 1.1ELK介绍 1.2ELK各组件介绍 1.2.1ElasticSearch 1.2.2Kiabana 1.2.3Logstash 1.2.4可以添加的其它组件 1.2.4.1Filebeat filebeat 结合logstash 带来好处 1.2.4.2缓存/消息队列(redis、kafka、RabbitMQ等) 1.2.4.3Fluentd 二、为什么要使用 ELK 三、完整日志系统基本特征 四、ELK 的工作

    2024年04月17日
    浏览(49)
  • docker搭建Elk+Kafka+Filebeat分布式日志收集系统

    目录 一、介绍 二、集群环境 三、ES集群 四、Kibana  五、Logstash 六、Zookeeper 七、Kafka 八、Filebeat 八、Nginx (一)架构图  (二)组件介绍 1.Elasticsearch 是一个基于Lucene的搜索服务器。提供搜集、分析、存储数据三大功能。它提供了一个分布式多用户能力的全文搜索引擎,基于

    2024年02月04日
    浏览(52)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包