ELK实验部署过程

这篇具有很好参考价值的文章主要介绍了ELK实验部署过程。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

ELK集群部署环境准备

配置ELK日志分析系统

192.168.1.51

elk-node1

es、logstash、kibana

192.168.1.52

elk-node2

es、logstash

192.168.1.53

apache

logstash

ELK实验部署过程,elk

(我这里是把虚拟机的配置全部都改为2核3G的)

  2台linux 第1台:elk-node1 第2台:node2(双核、内存4G

关闭防护机制

iptables -F

setenforce 0

systemctl stop firewalld

第1台

修改名字

hostnamectl    set-hostname elk-node1

 bash

主机映射vim修改配置文件在末尾添加(两台都做)

  vim /etc/hosts

192.168.1.51 elk-node1

192.168.1.52 elk-node2

第2台

修改名字

 hostnamectl    set-hostname elk-node2

 bash

1,2台都用系统自带java环境

 java -version

2台rz上传软件包 第1台软件包全部上传 第2台只上传3个

 ELK实验部署过程,elk

安装elasticsearch软件 (rz   logstash-5.5.1.rpm和elasticsearch-5.5.0.rpm

1,2

 rpm -ivh elasticsearch-5.5.0.rpm

rpm  -ivh logstash-5.5.1.rpm

重新识别系统中的服务并且设置为开机自启动

 systemctl daemon-reload

 systemctl enable elasticsearch.service

修改node1,node2的配置文件

 vim /etc/elasticsearch/elasticsearch.yml

ELK实验部署过程,elk

http.cors.enabled: true

http.cors.allow-origin: "*"

创建目录并且把用户和组都改为elasticsearch

 mkdir -p /data/elk_data

 chown elasticsearch:elasticsearch /data/elk_data/

启动elasticsearch.服务并且查看端口

 systemctl start elasticsearch.service

 netstat -anpt | grep 9200

访问节点ip

 http://192.168.1.51:9200/

ELK实验部署过程,elk

 http://192.168.1.52:9200/

ELK实验部署过程,elk

检查集群健康状态为green代表健康

 http://192.168.1.51:9200/_cluster/health?pretty

ELK实验部署过程,elk

 http://192.168.1.52:9200/_cluster/health?pretty

 ELK实验部署过程,elk

第1台

安装elasticsearch-head插件

解压软件包  (rz node-v8.2.1-linux-x64.tar.gz

 tar xf node-v8.2.1-linux-x64.tar.gz -C /usr/local/

做链接

 ln -s /usr/local/node-v8.2.1-linux-x64/bin/node /usr/bin/node

 ln -s /usr/local/node-v8.2.1-linux-x64/bin/npm /usr/local/bin/

查看版本

node -v

npm -v

解压headrz  elasticsearch-head.tar.gz

 tar xf elasticsearch-head.tar.gz -C /data/elk_data/

cd到elk_data

 cd /data/elk_data/

修改用户和组

 chown -R elasticsearch:elasticsearch elasticsearch-head/

cd到elasticsearch-head/

 cd elasticsearch-head/

安装npm (在/data/elk_data/elasticsearch-head目录下使用该命令安装)

 npm install

cd到site/下并且把app.js做个备份然后编辑

 cd _site/

 cp app.js{,.bak}

 vim app.js

ELK实验部署过程,elk

启动npm并且启动elasticsearch

 npm run start &

 systemctl start elasticsearch   如果访问后没有发现node2 

                              cd /data/elk_data/

                              rm -rf nodes/

查看端口是否有9100

 netstat -lnpt | grep 9100

访问ip查看节点

  http://192.168.1.51:9100/

ELK实验部署过程,elk

插入数据测试类型为test

 curl -XPUT 'localhost:9200/index-demo/test/1?pretty&pretty' -H 'Content-Type: application/json' -d '{ "user": "zhangsan","mesg":"hello word" }'

刷新http://192.168.1.51:9100/查看索引是否有变化

ELK实验部署过程,elk

安装logstash

1台也就是node1上安装logstash

rpm -ivh logstash-5.5.1.rpm  

启动logstash服务并且做一个软链接

systemctl start logstash

ln -s /usr/share/logstash/bin/logstash /usr/local/bin/

logstash 命令行常用的选项

-f:通过这个命令可以指定Logstash的配置文件,根据配置文件配置logstashe

-e: 后面跟着字符串,该字符串可以被当做logstash的配置(如果是"”则默认使用stdin作为输入,stdout作为输出)

-t:测试配置文件是否正确,然后退出

 

启动一个 logstash -e 在命令行执行 input

 logstash -e 'input { stdin{} } output { stdout{} }'

标准输入是靠键盘输入标准输出是直接在屏幕上输出

 ELK实验部署过程,elk

ELK实验部署过程,elk

使用rubydebug 显示详细输出 codec

logstash -e 'input { stdin{} } output { stdout{ codec =>rubydebug} }'

ELK实验部署过程,elk

ELK实验部署过程,elk使用logstash将信息写入到elasticsearch

 logstash -e 'input {stdin{} } output {  elasticsearch { hosts=> ["192.168.200.111:9200"]} }'

ELK实验部署过程,elk

www.baidu.com

www.sina.com.cn

www.gogle.com

配置收集系统日志 第1台

cd到logstash写入配置文件

 cd /etc/logstash/conf.d/

 vim systemc.conf

input {

    file {

        path => "/var/log/messages"

        type => "system"

        start_position => "beginning"

   }

}

output  {

    elasticsearch {

        hosts => ["192.168.1.51:9200"]

        index => "system-%{+YYYY.MM.dd}"

    }

}

重启logstash

 systemctl restart logstash

加载systemc.conf 文件并且查看是否打入到es当中

logstash -f systemc.conf

ELK实验部署过程,elk

安装kibana第1台rz  kibana-5.5.1-x86_64.rpm

 rpm -ivh kibana-5.5.1-x86_64.rpm

设置为开机自启动

 systemctl enable kibana.service

修改配置文件并启动服务

 vim /etc/kibana/kibana.yml

ELK实验部署过程,elk

启动服务并且查看端口

 systemctl restart kibana.service

 netstat -lnpt | grep 5601

logstash -f /etc/logstash/conf.d/system.conf

访问 http://192.168.1.51:5601/

ELK实验部署过程,elk

ELK实验部署过程,elk

 ELK实验部署过程,elk

第3台

开启第3台起名:apache

 hostname apache

 bash

关闭防护机制

 iptables -F

 systemctl stop firewalld

 setenforce 0

启动httpdyum -y install httpd

 systemctl start httpd

 

查看java版本 

java -version

rz上传软件包

 ELK实验部署过程,elk

rpm安装并且设置为开机自启动

 rpm -ivh logstash-5.5.1.rpm

 systemctl enable logstash.service

cd到logstash

 cd /etc/logstash/conf.d/

vim编辑配置文件

 vim apache_log.conf

 input {

   file {

        path => "/var/log/httpd/access_log"

        type => "access"

        start_position => "beginning"

   }

  file {

     path => "/var/log/httpd/error_log"

     type => "error"

     start_position => "beginning"

  }

}

output  {

    if [type] == "access" {

       elasticsearch {

        hosts => ["192.168.1.51:9200"]

        index => "apache_access-%{+YYYY.MM.dd}"

     }

 }

  if [type] == "error" {

    elasticsearch {

        hosts => ["192.168.1.51:9200"]

        index => "apache_error-%{+YYYY.MM.dd}"

    }

  }

}

[root@apache conf.d]# logstash -f apache_log.conf //加载文件

systemctl start logstash

ln -s /usr/share/logstash/bin/logstash /usr/local/bin/找不到命令试下这两个命令

ELK实验部署过程,elk

这里输入信息后退出回出现apache_access索引 

访问 192.168.1.53也就是第3台连续刷新然后查看 http://192.168.1.51:9100/ 

ELK实验部署过程,elk

ELK实验部署过程,elk

ELK实验部署过程,elk

ELK实验部署过程,elk

ELK实验部署过程,elk

 ELK实验部署过程,elk

ELK实验部署过程,elk

选择查看

 ELK实验部署过程,elk

 ELK实验部署过程,elk

 ELK实验部署过程,elk

ELK端口号:

elasticsearch:9200    

elasticsearch-head9100

logstash9600    input4560

Logstash agent:9601

kibana:5601文章来源地址https://www.toymoban.com/news/detail-529836.html

到了这里,关于ELK实验部署过程的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 【ELK企业级日志分析系统】安装与部署ELK详解

    ELK平台是一套完整的日志集中处理解决方案,将 ElasticSearch、Logstash和kibana三个开源工具配合使用 , 完成更强大的,用户对日志的查询、排序、统计需求。 ElasticSearch ElasticSearch:是基于Lucene(一个 全文检索引擎的架构 )开发的分布式存储检索引擎,用来存储各类日志。 El

    2024年02月16日
    浏览(41)
  • 【ELK企业级日志分析系统】部署Filebeat+ELK详解

    接上文安装与部署ELK详解 (1)在Filebeat节点上,安装Apache服务 (2)修改Apache服务的配置文件 (3)开启Apache服务 (4)浏览器访问,验证Apache服务 (1) 安装Filebeat (2)设置filebeat的主配置文件 (3)启动filebeat (4)在Logstash组件所在节点上,新建一个Logstash配置文件(CentOS 7-3) (

    2024年02月16日
    浏览(42)
  • ELK日志收集系统集群实验(5.5.0版)

    目录 前言 一、概述 二、组件介绍 1、elasticsearch 2、logstash 3、kibana 三、架构类型 四、ELK日志收集集群实验 1、实验拓扑 2、在node1和node2节点安装elasticsearch 3、启动elasticsearch服务 4、在node1安装elasticsearch-head插件 5、测试输入 6、node1服务器安装logstash 7、logstash日志收集文件格式

    2024年02月10日
    浏览(37)
  • ELK 企业级日志分析系统的概念、ELK Elasticsearch 集群部署

    1、ELK 简介 ELK平台是一套完整的日志集中处理解决方案,将 ==ElasticSearch、Logstash 和 Kiabana ==三个开源工具配合使用, 完成更强大的用户对日志的查询、排序、统计需求。 ElasticSearch 是基于Lucene(一个全文检索引擎的架构)开发的分布式存储检索引擎,用来存储各类日志。 E

    2024年02月16日
    浏览(51)
  • 【ELK 使用指南 1】ELK + Filebeat 分布式日志管理平台部署

    在运维中, 日志是非常重要的工具 ,用于记录系统、应用程序或设备的运行状态、事件和异常情况。 1)故障排除和问题诊断 日志是排查故障和诊断问题的关键信息源。 通过分析日志文件,可以查找和定位系统故障、错误和异常,帮助运维人员迅速找出问题的根本原因,并

    2024年02月07日
    浏览(48)
  • ELK集群部署---Kibana的部署

    1.  环境规划: 主机名 IP地址 角色 node1 192.168.56.111 ElasticSearch(master) Zookeeper Kafka node2 192.168.56.112 ElasticSearch(slave) Kibana Zookeeper Kafka node3 192.168.56.113 ElasticSearch(slave) Zookeeper Kafka node4 192.168.56.114 Logstash Filebeat 2.  安装Kibana: 3.  配置Kibana: 4.  启动Kibana: 5.  访问Kibana,\\\" http://

    2024年02月10日
    浏览(31)
  • ELK群集部署日志收集

    ELK平台是一套完整的日志集中处理解决方案 由ElasticSearch、Logstash、Kiabana三个开源工具配合使用 是用户对日志的查询、排序、统计的强大工具组合 一般用于大型企业,中小型企业一般会选择(rsyslog+日志服务器或者shell+Python收集日志) logstash进行日志数据收集并且格式化之后

    2023年04月20日
    浏览(70)
  • 部署ELK

    如果报错jvm内存太小,在宿主机查询到容器的配置文件,并修改内存大小 验证 验证 vi /app/logstash/config/logstash.yml 配置es ip vi /app/logstash/pipeline/logstash.conf logstash.conf 修改完配置文件,删除容器、重启容器 验证 引入logstash依赖 logback.xml日志配置 由于在配置中已经指定了索引名称

    2024年02月06日
    浏览(17)
  • Docker部署ELK

    一、拉取镜像 二、 运行容器 -p (小写)映射端口号,主机端口:容器端口 -P(大写)随机为容器指定端口号 -v 进行容器的挂载 –name 指定容器别名 –net 连接指定网络 -e 指定启动容器时的环境变量 -d 后台运行容器 –privileged=true 使容器有权限挂载目录 ElasticSearch 的默认端口

    2024年02月02日
    浏览(38)
  • Filebeat+ELK 部署

    Node1节点(2C/4G):node1/192.168.8.10                   Elasticsearch  Kibana Node2节点(2C/4G):node2/192.168.8.11                    Elasticsearch Apache节点:apache/192.168.8.13                      Logstash  Apache Filebeat节点:filebeat/192.168.8.20                    Filebeat   //在 Node1 节

    2024年02月14日
    浏览(40)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包