【Elastic (ELK) Stack 实战教程】06、Filebeat 日志收集实践(下)

这篇具有很好参考价值的文章主要介绍了【Elastic (ELK) Stack 实战教程】06、Filebeat 日志收集实践(下)。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

目录

一、Filebeat 收集 Nginx 日志实践

1.1 为什么收集 Nginx 日志

1.2 Nginx 日志收集架构图

1.3 Nginx 日志收集实践

1.3.1 安装 Nginx 

1.3.2 配置 filebeat

1.3.3 kibana 展示

1.4 Nginx json 日志收集实践

1.4.1 收集问题

1.4.2 解决方案

1.4.3 配置 json

1.4.4 配置 Filebeat

1.4.5 Kibana 展示

1.5 Nginx 多个日志收集实践

1.5.1 配置 Filebeat

1.5.2 kibana 展示

1.6 Nginx 多虚拟主机收集实践

1.6.1 nginx 配置多站点

1.6.2 配置 Filebeat

1.6.3 kibana 展示

二、Filebeat 收集 Tomcat 日志

2.1 Tomcat 日志收集思路

2.2 Tomcat 日志收集架构图

2.3 Tomcat 访问日志收集实践

2.3.1 安装 Tomcat

2.3.2 修改日志为 json 格式

2.3.3 配置 Filebeat

2.3.4 配置 kibana

2.4 Tomcat 错误日志收集实践

2.4.1 错误日志特点

2.4.2 错误日志收集思路

2.4.3 错误日志收集实践

2.4.4 kibana 展示

2.5 收集多台 Tomcat 节点日志

三、ES 错误日志收集实践


一、Filebeat 收集 Nginx 日志实践

1.1 为什么收集 Nginx 日志

        我们需要获取用户的信息,比如:来源的 IP 是哪个地域,网站的 PV、UV、状态码、访问时间等等,所以需要收集 Nginx 日志。

1.2 Nginx 日志收集架构图

nginx+filebeat --> elasticsearch --> kibana

es日志收集,Elastic (ELK) Stack 学习笔记,elk,elasticsearch,大数据

1.3 Nginx 日志收集实践

1.3.1 安装 Nginx 

[root@se-node3 ~]# yum -y install nginx 

[root@se-node3 ~]# vim /etc/nginx/conf.d/elk.conf
server {
    listen 80;
    server_name elk.com;
    location / {
        root /opt;
        index index.html;
    }
}

[root@se-node3 ~]# echo elk123 >> /opt/index.html

[root@se-node3 ~]# systemctl enable --now nginx.service 

1.3.2 配置 filebeat

配置 Filebeat,收集本机 Nginx 的日志:

[root@se-node3 ~]# vim /etc/filebeat/filebeat.yml
filebeat.inputs:
- type: log                    # 收集日志的类型
  enabled: true                # 启用日志收集
  paths:
    - /var/log/nginx/access.log           # 日志所在路径
  #include_lines: ['^WARN', '^ERR', 'sshd', '^CROND', '^systemd']

output.elasticsearch:          # 输出日志至 es
  hosts: ["192.168.170.132:9200", "192.168.170.133:9200", "192.168.170.134:9200"]   # es 集群 ip 和端口
  enabled: true
  index: "nginx-access-%{[agent.version]}-%{+yyyy.MM.dd}"     # 自定义索引名称
setup.ilm.enabled: false                                # 索引生命周期 ilm 功能默认开启,开启情况下索引名称只能为 filebeat-*
setup.template.name: "nginx"                           # 定义模板名称
setup.template.pattern: "nginx-*"                      # 定义模板的匹配索引名称

[root@se-node3 ~]# systemctl restart filebeat.service 

1.3.3 kibana 展示

使用 kibana 添加索引(nginx-access*),然后展示数据:

es日志收集,Elastic (ELK) Stack 学习笔记,elk,elasticsearch,大数据

1.4 Nginx json 日志收集实践

1.4.1 收集问题

        我们实现了 Nginx 日志的收集,但是所有的数据都在 message 字段中,无法满足分析的需求,比如:

  • 需要统计状态码的情况

  • 统计所有请求总产生的流量大小

  • 统计来源使用的客户端等等

这些是没有办法实现的。

1.4.2 解决方案

        需要将日志中的每一个选项都拆分出来,拆分成 key-value 的形式,那么就需要借助 json 的格式。

  • 基本写法: sky 男 20

  • json 写法: 姓名: sky 性别: 男 年龄: 20

        当需要筛选年龄时,通过JSON 的方式就能很好的提取出对应指标的值。这样也便于后续的分析。

1.4.3 配置 json

将 nginx 日志格式转换成 json 格式:

# 配置 log_format 即可
[root@se-node3 ~]# vim /etc/nginx/nginx.conf
······
http {
    log_format  main  '$remote_addr - $remote_user [$time_local] "$request" '
                      '$status $body_bytes_sent "$http_referer" '
                      '"$http_user_agent" "$http_x_forwarded_for"';
    
    log_format  json  '{ "time_local": "$time_local", '
                          '"remote_addr": "$remote_addr", '
                          '"referer": "$http_referer", '
                          '"request": "$request", '
                          '"status": "$status", '
                          '"bytes": "$body_bytes_sent", '
                          '"browser_agent": "$http_user_agent", '
                          '"x_forwarded": "shttp_x_forwarded_for", '
                          '"up_addr": "Supstream addr", '
                          '"up_host": "$upstream_http_host", '
                          '"upstream_time": "$upstream_response_time", '
                          '"request_time": "$request_time"'
    '}';

    access_log  /var/log/nginx/access.log  json;
······

1.4.4 配置 Filebeat

nginx 修改日志为 JSON 格式后,需要修改 filebeat 配置文件:

[root@se-node3 ~]# vim /etc/filebeat/filebeat.yml
filebeat.inputs:
- type: log                    # 收集日志的类型
  enabled: true                # 启用日志收集
  paths:
    - /var/log/nginx/access.log           # 日志所在路径
  #include_lines: ['^WARN', '^ERR', 'sshd', '^CROND', '^systemd']
  json.keys_under_root: true    # 默认为 false 将 json 解析的格式存储至 messages 字段,true 则不存储至 messages 字段
  json.overwrite_keys: true    # 覆盖默认的 messages 字段,使用自定义 json 格式的 key

output.elasticsearch:          # 输出日志至 es
  hosts: ["192.168.170.132:9200", "192.168.170.133:9200", "192.168.170.134:9200"]   # es 集群 ip 和端口
  enabled: true
  index: "nginx-access-%{[agent.version]}-%{+yyyy.MM.dd}"     # 自定义索引名称
setup.ilm.enabled: false                                # 索引生命周期 ilm 功能默认开启,开启情况下索引名称只能为 filebeat-*
setup.template.name: "nginx"                           # 定义模板名称
setup.template.pattern: "nginx-*"                      # 定义模板的匹配索引名称

# 重启 nginx、Filebeat 并清空日志,重新生产 json 格式的日志
[root@se-node3 ~]# systemctl reload nginx.service 
[root@se-node3 ~]# systemctl restart filebeat.service 
[root@se-node3 ~]# > /var/log/nginx/access.log

1.4.5 Kibana 展示

        每次修改完 Filebeat 的配置文件后都需要删除 es、Kibana 的索引,并重新创建 kibana 索引模式才能生效:

es日志收集,Elastic (ELK) Stack 学习笔记,elk,elasticsearch,大数据

1.5 Nginx 多个日志收集实践

        nginx 存在访问日志和错误日志,那么如何使用 filebeat 同时收集 nginx 的访问日志、错误日志呢;我们希望的状态如下:

  • nginx 访问日志--存储--> nginx-access-7.8.1-2023.03 索引

  • nginx 错误日志--存储--> nginx-error-7.8.1-2023.03 索引 

es日志收集,Elastic (ELK) Stack 学习笔记,elk,elasticsearch,大数据

1.5.1 配置 Filebeat

配置 Filebeat 收集多个日志,需要通过 tags 标签进行区分:

[root@se-node3 ~]# vim /etc/filebeat/filebeat.yml
filebeat.inputs:
- type: log                    # 收集日志的类型
  enabled: true                # 启用日志收集
  paths:
    - /var/log/nginx/access.log           # 日志所在路径
  #include_lines: ['^WARN', '^ERR', 'sshd', '^CROND', '^systemd']
  json.keys_under_root: true
  json.overwrite_keys: true
  tags: ["nginx-access"]

- type: log                    # 收集日志的类型
  enabled: true                # 启用日志收集
  paths:
    - /var/log/nginx/error.log           # 日志所在路径
  tags: ["nginx-error"]

output.elasticsearch:          # 输出日志至 es
  hosts: ["192.168.170.132:9200", "192.168.170.133:9200", "192.168.170.134:9200"]   # es 集群 ip 和端口
  enabled: true
  indices:
    - index: "nginx-access-%{[agent.version]}-%{+yyyy.MM.dd}"     # 自定义索引名称
      when.contains:
        tags: "nginx-access"    # tags 为 nginx-access 的日志存储至 nginx-access-* 索引
    - index: "nginx-error-%{[agent.version]}-%{+yyyy.MM.dd}"     # 自定义索引名称
      when.contains:
        tags: "nginx-error"    # tags 为 nginx-error 的日志存储至 nginx-error-* 索引

setup.ilm.enabled: false                                # 索引生命周期 ilm 功能默认开启,开启情况下索引名称只能为 filebeat-*
setup.template.name: "nginx"                           # 定义模板名称
setup.template.pattern: "nginx-*"                      # 定义模板的匹配索引名称

[root@se-node3 ~]# systemctl restart filebeat.service 

1.5.2 kibana 展示

使用 kibana 添 nginx 错误日志索引,然后展示数:

es日志收集,Elastic (ELK) Stack 学习笔记,elk,elasticsearch,大数据

1.6 Nginx 多虚拟主机收集实践

Nginx 如果有多个站点,filebeat 该如何收集多个域名的访问日志。

es日志收集,Elastic (ELK) Stack 学习笔记,elk,elasticsearch,大数据

1.6.1 nginx 配置多站点

[root@se-node3 ~]# vim /etc/nginx/conf.d/elk.conf 
server {
    listen 80;
    server_name elk.com;
    access_log /var/log/nginx/elk.log json;
    location / {
        root /opt;
        index index.html;
    }
}

[root@se-node3 ~]# cp /etc/nginx/conf.d/elk.conf /etc/nginx/conf.d/kk.conf
[root@se-node3 ~]# vim /etc/nginx/conf.d/kk.conf
server {
    listen 86;
    server_name kk.com;
    access_log /var/log/nginx/kk.log json;
    location / {
        root /opt;
        index index.html;
    }
}

[root@se-node3 ~]# systemctl reload nginx.service 

1.6.2 配置 Filebeat

[root@se-node3 ~]# vim /etc/filebeat/filebeat.yml
filebeat.inputs:
- type: log                    # 收集日志的类型
  enabled: true                # 启用日志收集
  paths:
    - /var/log/nginx/access.log           # 日志所在路径
  #include_lines: ['^WARN', '^ERR', 'sshd', '^CROND', '^systemd']
  json.keys_under_root: true
  json.overwrite_keys: true
  tags: ["nginx-access"]

- type: log                    # 收集日志的类型
  enabled: true                # 启用日志收集
  paths:
    - /var/log/nginx/elk.log           # 日志所在路径
  json.keys_under_root: true
  json.overwrite_keys: true
  tags: ["nginx-elk-access"]

- type: log                    # 收集日志的类型
  enabled: true                # 启用日志收集
  paths:
    - /var/log/nginx/kk.log           # 日志所在路径
  json.keys_under_root: true
  json.overwrite_keys: true
  tags: ["nginx-kk-access"]

- type: log                    # 收集日志的类型
  enabled: true                # 启用日志收集
  paths:
    - /var/log/nginx/error.log           # 日志所在路径
  tags: ["nginx-error"]

output.elasticsearch:          # 输出日志至 es
  hosts: ["192.168.170.132:9200", "192.168.170.133:9200", "192.168.170.134:9200"]   # es 集群 ip 和端口
  enabled: true
  indices:
    - index: "nginx-access-%{[agent.version]}-%{+yyyy.MM.dd}"     # 自定义索引名称
      when.contains:
        tags: "nginx-access"
    - index: "nginx-elk-access-%{[agent.version]}-%{+yyyy.MM.dd}"     # 自定义索引名称
      when.contains:
        tags: "nginx-elk-access"
    - index: "nginx-kk-access-%{[agent.version]}-%{+yyyy.MM.dd}"     # 自定义索引名称
      when.contains:
        tags: "nginx-kk-access"
    - index: "nginx-error-%{[agent.version]}-%{+yyyy.MM.dd}"     # 自定义索引名称
      when.contains:
        tags: "nginx-error"

setup.ilm.enabled: false                                # 索引生命周期 ilm 功能默认开启,开启情况下索引名称只能为 filebeat-*
setup.template.name: "nginx"                           # 定义模板名称
setup.template.pattern: "nginx-*"                      # 定义模板的匹配索引名称

[root@se-node3 ~]# systemctl restart filebeat.service 

1.6.3 kibana 展示

创建 Kibana 索引模式:

es日志收集,Elastic (ELK) Stack 学习笔记,elk,elasticsearch,大数据

二、Filebeat 收集 Tomcat 日志

2.1 Tomcat 日志收集思路

        前面已经收集过 Nginx 日志,所以下面收集 java 类型的 Tomcat 日志就比较简单了,我们只需要安装好 tomcat,然后将 tomcat 修改为 json 格式日志,在使用 filebeat 进行收集即可。

2.2 Tomcat 日志收集架构图

tomcat+filebeat --> elasticsearch --> kibana

es日志收集,Elastic (ELK) Stack 学习笔记,elk,elasticsearch,大数据

2.3 Tomcat 访问日志收集实践

2.3.1 安装 Tomcat

Tomcat 下载地址:Index of /apache/tomcat/tomcat-9/v9.0.73/bin

es日志收集,Elastic (ELK) Stack 学习笔记,elk,elasticsearch,大数据

[root@se-node3 ~]# yum install -y java
[root@se-node3 ~]# tar -zxvf apache-tomcat-9.0.73.tar.gz 
[root@se-node3 ~]# mv apache-tomcat-9.0.73 /usr/local/tomcat-9.0.73

2.3.2 修改日志为 json 格式

修改默认网站日志格式为 json:

[root@se-node3 ~]# vim /usr/local/tomcat-9.0.73/conf/server.xml 
        <Valve className="org.apache.catalina.valves.AccessLogValve" directory="logs"
               prefix="localhost_access_log" suffix=".txt"
               pattern="{&quot;clientip&quot;:&quot;%h&quot;,&quot;clientuser&quot;:&quot;%1&quot;,&quot;authenticated&quot;:&quot;%u&quot;,&quot;AccessTime&quot;:&quot;%t&quot;,&quot;method&quot;:&quot;%r&quot;,&quot;status&quot;:&quot;%s&quot;,&quot;sendBytes&quot;:&quot;%b&quot;,&quot;Query?string&quot;:&quot;%q&quot;,&quot;partner&quot;:&quot;%{Referer}i&quot;,&quot;Agentversion&quot;:&quot;%{user-Agent}i&quot;}" />
      </Host>

[root@se-node3 ~]# /usr/local/tomcat-9.0.73/bin/startup.sh 

2.3.3 配置 Filebeat

# 把前面的 nginx 配置备份一下
[root@se-node3 ~]# cp /etc/filebeat/filebeat.yml /etc/filebeat/filebeat.yml_nginx

[root@se-node3 ~]# vim /etc/filebeat/filebeat.yml
filebeat.inputs:
- type: log                    # 收集日志的类型
  enabled: true                # 启用日志收集
  paths:
    - /usr/local/tomcat-9.0.73/logs/localhost_access_log*.txt           # 日志所在路径
  #include_lines: ['^WARN', '^ERR', 'sshd', '^CROND', '^systemd']
  json.keys_under_root: true
  json.overwrite_keys: true
  tags: ["tomcat-access"]

output.elasticsearch:          # 输出日志至 es
  hosts: ["192.168.170.132:9200", "192.168.170.133:9200", "192.168.170.134:9200"]   # es 集群 ip 和端口
  enabled: true
  index: "tomcat-access-%{[agent.version]}-%{+yyyy.MM.dd}"     # 自定义索引名称

setup.ilm.enabled: false                                # 索引生命周期 ilm 功能默认开启,开启情况下索引名称只能为 filebeat-*
setup.template.name: "tomcat"                           # 定义模板名称
setup.template.pattern: "tomcat-*"                      # 定义模板的匹配索引名称

[root@se-node3 ~]# systemctl restart filebeat.service 

2.3.4 配置 kibana

使用 kibana 添加索引,进行数据展示:

es日志收集,Elastic (ELK) Stack 学习笔记,elk,elasticsearch,大数据

2.4 Tomcat 错误日志收集实践

2.4.1 错误日志特点

JAVA 错误日志的特点

  • 报错信息比较多

  • 报错信息分很多行

2.4.2 错误日志收集思路

        例1:Tomcat 正常日志是以“日期”开头的。而报错日志中间的错误都不是以“日期”开头的。所以我们可以匹配以“日期”开头的一直到下一个日期出现则为一个事件日志。

        例2:Elasticsearch 正常日志是以"[]"开头的。而报错日志中间的错误信息不是以"[]"开头,所以可以匹配以"["开头的行,一直到下一个"["开头的出现则为一个事件日志。

官方多行匹配方式:Manage multiline messages | Filebeat Reference [7.4] | Elastic

2.4.3 错误日志收集实践

配置 filebeat 收集 Tomcat 错误日志:

[root@se-node3 ~]# vim /etc/filebeat/filebeat.yml
filebeat.inputs:
- type: log                    # 收集日志的类型
  enabled: true                # 启用日志收集
  paths:
    - /usr/local/tomcat-9.0.73/logs/localhost_access_log*.txt           # 日志所在路径
  #include_lines: ['^WARN', '^ERR', 'sshd', '^CROND', '^systemd']
  json.keys_under_root: true
  json.overwrite_keys: true
  tags: ["tomcat-access"]

- type: log                    # 收集日志的类型
  enabled: true                # 启用日志收集
  paths:
    - /usr/local/tomcat-9.0.73/logs/catalina.out           # 日志所在路径
  tags: ["tomcat-error"]
  multiline.pattern: '^\d{2}'    # 匹配以两个数字开头的行
  multiline.negate: true
  multiline.match: after
  multiline.max_lines: 1000       # 默认最大合并行为 500,可根据实际情况调整

output.elasticsearch:          # 输出日志至 es
  hosts: ["192.168.170.132:9200", "192.168.170.133:9200", "192.168.170.134:9200"]   # es 集群 ip 和端口
  enabled: true
  indices:
    - index: "tomcat-access-%{[agent.version]}-%{+yyyy.MM.dd}"     # 自定义索引名称
      when.contains:
        tags: "tomcat-access"
    - index: "tomcat-error-%{[agent.version]}-%{+yyyy.MM.dd}"     # 自定义索引名称
      when.contains:
        tags: "tomcat-error"

setup.ilm.enabled: false                                # 索引生命周期 ilm 功能默认开启,开启情况下索引名称只能为 filebeat-*
setup.template.name: "tomcat"                           # 定义模板名称
setup.template.pattern: "tomcat-*"                      # 定义模板的匹配索引名称

[root@se-node3 ~]# systemctl restart filebeat.service 

2.4.4 kibana 展示

配置 kibana 添加索引,然后展示数据:

es日志收集,Elastic (ELK) Stack 学习笔记,elk,elasticsearch,大数据

2.5 收集多台 Tomcat 节点日志

        思路是再另一台 Tomcat 节点的机器上安装 Filebeat 组件,并重复 2.3 、2.4 的相同步骤,不需要做其他修改(如索引名称等),配置好 Filebeat 然后启动后, Kibana 会自动汇总聚合相同索引的数据,使用 agent.name 字段区分 Tomcat 节点即可:

es日志收集,Elastic (ELK) Stack 学习笔记,elk,elasticsearch,大数据

三、ES 错误日志收集实践

配置 filebeat 收集 Elasticsearch 错误日志:

[root@se-node3 ~]# vim /etc/filebeat/filebeat.yml
filebeat.inputs:
- type: log                    # 收集日志的类型
  enabled: true                # 启用日志收集
  paths:
    - /var/log/elasticsearch/my-es.log          # 日志所在路径
  multiline.pattern: '^\['
  multiline.negate: true
  multiline.match: after
  multiline.max_lines: 1000

output.elasticsearch:          # 输出日志至 es
  hosts: ["192.168.170.132:9200", "192.168.170.133:9200", "192.168.170.134:9200"]   # es 集群 ip 和端口
  enabled: true
  index: "es-node3-%{[agent.version]}-%{+yyyy.MM.dd}"     # 自定义索引名称

setup.ilm.enabled: false                                # 索引生命周期 ilm 功能默认开启,开启情况下索引名称只能为 filebeat-*
setup.template.name: "es"                           # 定义模板名称
setup.template.pattern: "es-node*"                      # 定义模板的匹配索引名称

[root@se-node3 ~]# systemctl restart filebeat.service 

上一篇文章:【Elastic (ELK) Stack 实战教程】05、Filebeat 日志收集实践(上)_Stars.Sky的博客-CSDN博客

下一篇文章:【Elastic (ELK) Stack 实战教程】07、Logstash 快速入门及 Input、Filter 插件讲解_Stars.Sky的博客-CSDN博客文章来源地址https://www.toymoban.com/news/detail-789787.html

到了这里,关于【Elastic (ELK) Stack 实战教程】06、Filebeat 日志收集实践(下)的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 部署ELK+Kafka+Filebeat日志收集分析系统

    ELK是三个软件的统称,即Elasticsearch、Logstash和Kibana三个开源软件的缩写。这三款软件都是开源软件,通常配合使用,并且都先后归于Elastic.co企业名下,故被简称为ELK协议栈。ELK主要用于部署在企业架构中,收集多台设备上多个服务的日志信息,并将其统一整合后提供给用户。

    2024年02月16日
    浏览(37)
  • docker搭建Elk+Kafka+Filebeat分布式日志收集系统

    目录 一、介绍 二、集群环境 三、ES集群 四、Kibana  五、Logstash 六、Zookeeper 七、Kafka 八、Filebeat 八、Nginx (一)架构图  (二)组件介绍 1.Elasticsearch 是一个基于Lucene的搜索服务器。提供搜集、分析、存储数据三大功能。它提供了一个分布式多用户能力的全文搜索引擎,基于

    2024年02月04日
    浏览(50)
  • 使用ELK(ES+Logstash+Filebeat+Kibana)收集nginx的日志

    书接上回:《ELK中Logstash的基本配置和用法》 默认情况下,Nginx的日志记录的是下面的格式: 在 nginx.conf 中也可以看到相关配置信息: 现在为了方便收集日志,我们把这里的格式改为 json格式,在 nginx.conf 中加入下面的内容: 以上配置是手动组装了一个json格式的配置信息。

    2024年02月11日
    浏览(44)
  • Linux搭建ELK日志收集系统构建:Filebeat+Redis+Logstash+Elasticse

    一、ELK概述: ELK是一组开源软件的简称,其包括Elasticsearch、Logstash 和 Kibana。ELK最近几年发展迅速,已经成为目前最流行的集中式日志解决方案。 Elasticsearch: 能对大容量的数据进行接近实时的存储,搜索和分析操作。 本项目中主要通过Elasticsearch存储所有获取的日志。 Logst

    2024年02月12日
    浏览(53)
  • ZooKeeper+Kafka+ELK+Filebeat集群搭建实现大批量日志收集和展示

    大致流程:将nginx 服务器(web-filebeat)的日志通过filebeat收集之后,存储到缓存服务器kafka,之后logstash到kafka服务器上取出相应日志,经过处理后写入到elasticsearch服务器并在kibana上展示。 一、集群环境准备 二、搭建zookeeper集群 前提条件:三台机器分别修改时区、关闭防火墙

    2024年02月04日
    浏览(45)
  • ELK实例----使用filebeat收集tomcat日志到ES并利用kibana展示

    节点名称 节点名称 ip地址 kibana kibana 10.0.0.100 elasticsearch elasticsearch 10.0.0.101 filebeat filebeat 10.0.0.102 elasticsearch、Kibana、metricbeat、filebeat版本要一致,如都是7.17.5版本 1.2.1 安装elasticsearch CPU 2C 内存4G或更多 1.2.2 安装 Kibana 1.2.3 安装metricbeat 1.2.3 安装filebeat 1.2.4 安装Nginx 1.2.5 安装t

    2024年02月09日
    浏览(49)
  • 基于Filebeat+Kafka+ELK实现Nginx日志收集并采用Elastalert2实现钉钉告警

           先准备3台Nginx服务器,用做后端服务器,(由于机器有限,也直接用这三台机器来部署ES集群),然后准备2台服务器做负载均衡器(Nginx实现负载均衡具体实现操作有机会在介绍),如果是简单学习测试,可以先使用3台Nginx服务器就可以,先告一段落。 3台Nginx服务

    2024年02月15日
    浏览(32)
  • Kibana-elastic--Elastic Stack--ELK Stack

    Kibana 是什么? | Elastic 将数据转变为结果、响应和解决方案 使用 Kibana 针对大规模数据快速运行数据分析,以实现可观测性、安全和搜索。对来自任何来源的任何数据进行全面透彻的分析,从威胁情报到搜索分析,从日志到应用程序监测,不一而足。 虫瞻图(英语:worm\\\'s-eye

    2024年02月15日
    浏览(40)
  • [ELK] ELK+Filebeat变成ELK stack

    在 Node1 节点上操作 1. 安装 Filebeat 2. 设置 filebeat 的主配置文件      3. 启动 filebeat    4.在 Logstash 组件所在节点上新建一个 Logstash 配置文件   5.浏览器访问    作用:grok 使用文本片段切分的方式来切分日志事件 2.1 内置正则表达式调用  ●SYNTAX代表匹配值的类型,例如

    2024年01月20日
    浏览(37)
  • Elastic(ELK) Stack 架构师成长路径

    Elastic Stack(ELK Stack)是一个开源的日志分析平台,由 Elasticsearch、Logstash 和 Kibana 三个组件组成,主要用于数据搜索、分析和可视化。要成为一名 ELK Stack 架构师,需要遵循一定的成长路径,以便逐步掌握相关知识和技能。 基本了解:在这个阶段,您需要学习基本的ELK Stack概

    2023年04月21日
    浏览(46)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包