ELK 分离式日志(1)

这篇具有很好参考价值的文章主要介绍了ELK 分离式日志(1)。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

目录

一.ELK组件

ElasticSearch:

Kiabana:

Logstash:

可以添加的其它组件:

ELK 的工作原理:

二.部署ELK

节点都设置Java环境:

每台都可以部署 Elasticsearch 软件:

修改elasticsearch主配置文件:

性能调优参数:

修改内核参数文件:

访问页面查看节点信息及状态:

每台安装 Elasticsearch-head 插件:

安装 phantomjs:

安装 Elasticsearch-head 数据可视化工具(安装一个节点):

安装依赖包:

修改 Elasticsearch 主配置文件(10,20,30节点):

启动 elasticsearch-head 服务:

访问页面:

插入索引:

通过命令插入一个测试索引,索引为 index-demo,类型为 test:

浏览器访问 http://192.168.80.10:9100/ 查看索引信息:

ELK Logstash 部署(在 web 节点上操作):

安装logstash:

测试 Logstash:

使用 Logstash 将信息写入 Elasticsearch 中:

修改 Logstash 配置文件,让其收集系统日志/var/log/messages,并将其输出到 elasticsearch 中:

创建目录:

切换到目录:

添加文件内容:

ELK Kiabana 部署(30节点上操作):

安装 Kiabana:

设置 Kibana 的主配置文件:

创建日志:

验证 Kibana:

创建索引:

将nginx服务器的日志(访问的、错误的)添加到 Elasticsearch 并通过 Kibana 显示:

到kibana目录下添加文件内容:

检查文件是否成功:

添加索引:


一.ELK组件

ELK平台是一套完整的日志集中处理解决方案,将 ElasticSearch、Logstash 和 Kiabana 三个开源工具配合使用, 完成更强大的用户对日志的查询、排序、统计需求。

ElasticSearch:

是基于Lucene(一个全文检索引擎的架构)开发的分布式存储检索引擎,用来存储各类日志。

Kiabana:

Kibana 通常与 Elasticsearch 一起部署,Kibana 是 Elasticsearch 的一个功能强大的数据可视化 Dashboard,Kibana 提供图形化的 web 界面来浏览 Elasticsearch 日志数据,可以用来汇总、分析和搜索重要数据。

Logstash:

作为数据收集引擎。它支持动态的从各种数据源搜集数据,并对数据进行过滤、分析、丰富、统一格式等操作,然后存储到用户指定的位置,一般会发送给 Elasticsearch。

可以添加的其它组件:

Filebeat:轻量级的开源日志文件数据搜集器。通常在需要采集数据的客户端安装 Filebeat,并指定目录与日志格式,Filebeat 就能快速收集数据,并发送给 logstash 进行解析,或是直接发给 Elasticsearch 存储,性能上相比运行于 JVM 上的 logstash 优势明显,是对它的替代。常应用于 EFLK 架构当中。

filebeat 结合 logstash 带来好处:
1)通过 Logstash 具有基于磁盘的自适应缓冲系统,该系统将吸收传入的吞吐量,从而减轻 Elasticsearch 持续写入数据的压力
2)从其他数据源(例如数据库,S3对象存储或消息传递队列)中提取
3)将数据发送到多个目的地,例如S3,HDFS(Hadoop分布式文件系统)或写入文件
4)使用条件数据流逻辑组成更复杂的处理管道

缓存/消息队列(redis、kafka、RabbitMQ等):可以对高并发日志数据进行流量削峰和缓冲,这样的缓冲可以一定程度的保护数据不丢失,还可以对整个架构进行应用解耦。

ELK 的工作原理:

Logstash 收集日志,将日志格式化并输出到 Elasticsearch 群集中。

Elasticsearch 对格式化后的数据进行索引和存储。

Kibana 从 ES 群集中查询数据生成图表,并进行前端数据的展示。

总结:logstash作为日志搜集器,从数据源采集数据,并对数据进行过滤,格式化处理,然后交由Elasticsearch存储,kibana对日志进行可视化处理。
 

二.部署ELK

先准备三台服务器,192.168.233.(10..30),其中30为web网页服务器,

节点都设置Java环境:

ELK 分离式日志(1),elk

如果没有安装则下载:yum -y install java。

每台都可以部署 Elasticsearch 软件:

ELK 分离式日志(1),elk

ELK 分离式日志(1),elk

修改elasticsearch主配置文件:

ELK 分离式日志(1),elk

ELK 分离式日志(1),elk

ELK 分离式日志(1),elk

ELK 分离式日志(1),elk

ELK 分离式日志(1),elk

查看信息:


grep -v "^#" /etc/elasticsearch/elasticsearch.yml

ELK 分离式日志(1),elk

其他节点:

ELK 分离式日志(1),elk

ELK 分离式日志(1),elk

ELK 分离式日志(1),elk

ELK 分离式日志(1),elk

性能调优参数:

ELK 分离式日志(1),elk

ELK 分离式日志(1),elk

ELK 分离式日志(1),elk

ELK 分离式日志(1),elk 需重启生效:

ELK 分离式日志(1),elk

修改内核参数文件:

ELK 分离式日志(1),elk

ELK 分离式日志(1),elkELK 分离式日志(1),elk

ELK 分离式日志(1),elk

启动elasticsearch是否成功开启:

ELK 分离式日志(1),elk

ELK 分离式日志(1),elkELK 分离式日志(1),elk

访问页面查看节点信息及状态:

ELK 分离式日志(1),elk

状态,查看群集的健康情况,可以看到 status 值为 green(绿色), 表示节点健康运行:

http://192.168.233.10:9200/_cluster/health?pretty

ELK 分离式日志(1),elkELK 分离式日志(1),elk

状态:

ELK 分离式日志(1),elk

ELK 分离式日志(1),elk

状态:

ELK 分离式日志(1),elk


每台安装 Elasticsearch-head 插件:

上传软件包 node-v8.2.1.tar.gz 到/opt,并解压:

ELK 分离式日志(1),elk

ELK 分离式日志(1),elk

编译安装:

ELK 分离式日志(1),elk

ELK 分离式日志(1),elk

安装 phantomjs:

上传软件包 phantomjs-2.1.1-linux-x86_64.tar.bz2 到/opt,并解压:

ELK 分离式日志(1),elk

ELK 分离式日志(1),elk

将命令复制到环境变量下:

ELK 分离式日志(1),elk

安装 Elasticsearch-head 数据可视化工具(安装一个节点):

上传软件包 elasticsearch-head-master.zip 到/opt:

ELK 分离式日志(1),elk

unzip elasticsearch-head-master.zip

ELK 分离式日志(1),elk

安装依赖包:

ELK 分离式日志(1),elk

ELK 分离式日志(1),elk

修改 Elasticsearch 主配置文件(10,20,30节点):

http.cors.enabled: true
http.cors.allow-origin: "*"

10节点:

ELK 分离式日志(1),elk

ELK 分离式日志(1),elk

ELK 分离式日志(1),elk

20节点:

ELK 分离式日志(1),elk

ELK 分离式日志(1),elk

ELK 分离式日志(1),elk

30节点:

ELK 分离式日志(1),elk

ELK 分离式日志(1),elk

重启:

ELK 分离式日志(1),elk

启动 elasticsearch-head 服务:

必须在解压后的 elasticsearch-head 目录下启动服务,进程会读取该目录下的 gruntfile.js 文件,否则可能启动失败。

ELK 分离式日志(1),elk

ELK 分离式日志(1),elk

访问页面:

ELK 分离式日志(1),elk

通过 Elasticsearch-head 查看 Elasticsearch 信息:看到群集健康值为 green 绿色,代表群集很健康。

ELK 分离式日志(1),elk

ELK 分离式日志(1),elk

ELK 分离式日志(1),elk

插入索引:
通过命令插入一个测试索引,索引为 index-demo,类型为 test:

curl -X PUT 'localhost:9200/index-demo/test/1?pretty&pretty' -H 'content-Type: application/json' -d '{"user":"zhangsan","mesg":"hello world"}'

ELK 分离式日志(1),elk

浏览器访问 http://192.168.80.10:9100/ 查看索引信息:

ELK 分离式日志(1),elk

可以看见索引默认被分片5个,并且有一个副本。点击“数据浏览”,会发现在node1上创建的索引为 index-demo,类型为 test 的相关信息:

ELK 分离式日志(1),elk

ELK 分离式日志(1),elk

ELK Logstash 部署(在 web 节点上操作):

Logstash 一般部署在需要监控其日志的服务器:

开启40节点安装nginx,并启动:

ELK 分离式日志(1),elk

更改主机名:

hostnamectl set-hostname nginx

ELK 分离式日志(1),elk

添加页面测试页面:

ELK 分离式日志(1),elk

ELK 分离式日志(1),elk

ELK 分离式日志(1),elk

ELK 分离式日志(1),elk

ELK 分离式日志(1),elk

安装logstash:

上传软件包 logstash-6.7.2.rpm 到/opt目录下:

ELK 分离式日志(1),elk

编译:

rpm -ivh logstash-6.7.2.rpm

ELK 分离式日志(1),elk

让logstash能够补全:

ln -s /usr/share/logstash/bin/logstash /usr/local/bin/

ELK 分离式日志(1),elk

设置自启:

ELK 分离式日志(1),elk

测试 Logstash:

logstash -e 'input { stdin{} } output { stdout{} }'

ELK 分离式日志(1),elk

ELK 分离式日志(1),elk

键盘输入内容:

ELK 分离式日志(1),elk

使用 Logstash 将信息写入 Elasticsearch 中:

logstash -e 'input { stdin{} } output { elasticsearch { hosts=>["192.168.233.10:9200"] } }'

看下10节点的数据:

ELK 分离式日志(1),elk

在40节点上输入内容:

ELK 分离式日志(1),elk

再看下10节点 :

ELK 分离式日志(1),elk

ELK 分离式日志(1),elk

修改 Logstash 配置文件,让其收集系统日志/var/log/messages,并将其输出到 elasticsearch 中:

ELK 分离式日志(1),elk

chmod +r /var/log/messages

ELK 分离式日志(1),elk

cd /etc/logstash

ELK 分离式日志(1),elk

创建目录:

ELK 分离式日志(1),elk

创建日志文件:

touch log_progress

ELK 分离式日志(1),elk

授用户权限:

chown logstash:logstash /etc/logstash/sincedb_path/log_progress

ELK 分离式日志(1),elk

切换到目录:

cd /etc/logstash/conf.d/

ELK 分离式日志(1),elk

关闭logstash服务:

ELK 分离式日志(1),elk

添加文件内容:

vim system.conf

ELK 分离式日志(1),elk

ELK 分离式日志(1),elk

ELK 分离式日志(1),elk

logstash -f system.conf

ELK 分离式日志(1),elk

ELK 分离式日志(1),elk

查看下esWeb页面:

ELK 分离式日志(1),elk

ELK 分离式日志(1),elk

ELK Kiabana 部署(30节点上操作):
安装 Kiabana:

上传软件包 kibana-6.7.2-x86_64.rpm 到/opt目录

ELK 分离式日志(1),elk

rpm -ivh kibana-6.7.2-x86_64.rpm

ELK 分离式日志(1),elk

设置 Kibana 的主配置文件:

vim /etc/kibana/kibana.yml

ELK 分离式日志(1),elk

ELK 分离式日志(1),elk

ELK 分离式日志(1),elk

ELK 分离式日志(1),elk

ELK 分离式日志(1),elk

ELK 分离式日志(1),elk

创建日志:

touch /var/log/kibana.log

ELK 分离式日志(1),elk

授权:ELK 分离式日志(1),elk

chown kibana:kibana /var/log/kibana.log

ELK 分离式日志(1),elk

开启服务:

ELK 分离式日志(1),elk

ELK 分离式日志(1),elk

验证 Kibana:

ELK 分离式日志(1),elk

ELK 分离式日志(1),elk

可以管理索引:

ELK 分离式日志(1),elk

ELK 分离式日志(1),elk

创建索引:

ELK 分离式日志(1),elk

ELK 分离式日志(1),elk

ELK 分离式日志(1),elkELK 分离式日志(1),elkELK 分离式日志(1),elk

将nginx服务器的日志(访问的、错误的)添加到 Elasticsearch 并通过 Kibana 显示:

ELK 分离式日志(1),elk

到kibana目录下添加文件内容:

ELK 分离式日志(1),elk

ELK 分离式日志(1),elk

input {
    file{
        path => "/usr/local/nginx/logs/access.log"
        type => "access"
        start_position => "beginning"
    }
    file{
        path => "/usr/local/nginx/logs/error.log"
        type => "error"
        start_position => "beginning"
    }
}

output {

    if [type] == "access" {
        elasticsearch {
            hosts => ["192.168.233.10:9200","192.168.233.30:9200"]
            index => "nginx_access-%{+YYYY.MM.dd}"
        }
    }
        if [type] == "error" {
        elasticsearch {
            hosts => ["192.168.233.10:9200","192.168.233.30:9200"]
            index => "nginx_error-%{+YYYY.MM.dd}"
        }
    }
}

注意看看自己web应用的log文件路径ELK 分离式日志(1),elk

ELK 分离式日志(1),elk

检查文件是否成功:

ELK 分离式日志(1),elk

进行测试:

logstash -f system.conf

ELK 分离式日志(1),elk

添加索引:

ELK 分离式日志(1),elk

ELK 分离式日志(1),elk

ELK 分离式日志(1),elk

创建成功日志索引:

ELK 分离式日志(1),elk

ELK 分离式日志(1),elk

创建错误日志索引:

ELK 分离式日志(1),elkELK 分离式日志(1),elkELK 分离式日志(1),elk文章来源地址https://www.toymoban.com/news/detail-804697.html

到了这里,关于ELK 分离式日志(1)的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 前后端分离式项目架构流程(爆肝两万字)

    本篇博客主要以介绍🎀前后端分离式项目架构流程 执行npm run serve命令,进入浏览器,生成此页面,说明项目创建完成· 清理默认组件内容:APP.vue 、 (删除HelloWord.vue) 打开命令行工具,进入你的项目目录,输入下面命令。 npm i vue-router@3.5.3 1.创建 router 目录~创建 index.js 文件,在

    2024年02月07日
    浏览(39)
  • 宿舍管理系统--前后端分离式项目架构流程复盘(三万字详解)

    本篇博客主要以巩固前后端分离式项目架构流程,通过开发一个宿舍管理系统为例,系统地梳理所学知识以及提高业务逻辑能力,欢迎大家来交流经验🐒 这个是创建完成后的样子 执行npm run serve命令,按回车进入浏览器,生成此页面,说明项目创建完成· 1.直接删掉components文

    2024年02月13日
    浏览(45)
  • ES冷热分离架构设计:一招让你的ELK日志系统节省 50% 的硬盘成本

    首先抛出问题:对于热点搜索而言,最高效的存储手段是什么? 一味地堆硬件配置,不仅不能有效的解决问题,反而会让服务变得臃肿,集群变得累赘增加管理成本和硬件成本。 本文主要探讨关于热点数据的高效存储问题,讨论范围在数据持久化前提下,多级缓存暂不讨论

    2024年02月05日
    浏览(69)
  • [ELK] ELK企业级日志分析系统

    1.1 ELK 简介与组件 ELK平台是一套完整的日志集中处理解决方案,将 ElasticSearch、Logstash 和 Kiabana 三个开源工具配合使用, 完成更强大的用户对日志的查询、排序、统计需求。 ●ElasticSearch:是基于Lucene(一个全文检索引擎的架构)开发的分布式存储检索引擎,用来存储各类日

    2024年01月21日
    浏览(71)
  • ELK 日志框架搭建 (springboot 接入 elk)

    ELK 是一个开源的实时日志分析平台,它主要由 Elasticsearch、Logstash 和 Kiabana 三部分组成。 Logstash 主要用于收集日志,它是一个开源数据收集引擎,具有实时管道功能。Logstash 可以动态地将来自不同数据源的数据统一起来,并将数据标准化到您所选择的目的地。 Logstash 收集数

    2023年04月25日
    浏览(38)
  • ELK (一)部署ELK+Filebeat日志收集分析系统

    说明:此安装流程只适用于8.0.0以下的版本 1.1 下载ElasticSearch的wget指令: 1.2 解压安装包到指定目录 指定解压缩到 /usr/local 目录下 1.3 修改配置文件 (1)elasticsearch.yml 分别创建 path.data、path.logs 对应的 data、logs文件夹。 详细配置: (2)limits.conf 末尾追加以下内容: (3)s

    2024年02月08日
    浏览(46)
  • 【ELK企业级日志分析系统】安装与部署ELK详解

    ELK平台是一套完整的日志集中处理解决方案,将 ElasticSearch、Logstash和kibana三个开源工具配合使用 , 完成更强大的,用户对日志的查询、排序、统计需求。 ElasticSearch ElasticSearch:是基于Lucene(一个 全文检索引擎的架构 )开发的分布式存储检索引擎,用来存储各类日志。 El

    2024年02月16日
    浏览(42)
  • 【ELK企业级日志分析系统】部署Filebeat+ELK详解

    接上文安装与部署ELK详解 (1)在Filebeat节点上,安装Apache服务 (2)修改Apache服务的配置文件 (3)开启Apache服务 (4)浏览器访问,验证Apache服务 (1) 安装Filebeat (2)设置filebeat的主配置文件 (3)启动filebeat (4)在Logstash组件所在节点上,新建一个Logstash配置文件(CentOS 7-3) (

    2024年02月16日
    浏览(42)
  • logstack 日志技术栈-01-ELK/EFK 入门介绍 ELK+filebeta

    ​在Kubernetes集群上运行多个服务和应用程序时,日志收集系统可以帮助你快速分类和分析由Pod生成的大量日志数据。 Kubernetes中比较流行的日志收集解决方案是Elasticsearch、Fluentd和Kibana(EFK)技术栈,也是官方推荐的一种方案。 1)Elasticsearch:是一个实时的,分布式的,可扩

    2024年01月21日
    浏览(59)
  • ELK 企业级日志分析系统的概念、ELK Elasticsearch 集群部署

    1、ELK 简介 ELK平台是一套完整的日志集中处理解决方案,将 ==ElasticSearch、Logstash 和 Kiabana ==三个开源工具配合使用, 完成更强大的用户对日志的查询、排序、统计需求。 ElasticSearch 是基于Lucene(一个全文检索引擎的架构)开发的分布式存储检索引擎,用来存储各类日志。 E

    2024年02月16日
    浏览(51)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包