Filebeat部署+Kafka接收消息

这篇具有很好参考价值的文章主要介绍了Filebeat部署+Kafka接收消息。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

Filebeat部署+Kafka接收消息

一、下载与解压Filebeat

1.Filebeat官方下载地址:https://www.elastic.co/cn/downloads/past-releases#filebeat
我下的是7.12版本,链接: link
filebeat输出到kafka,kafka,大数据,分布式
2.上传压缩包

解压并重命名文件夹
tar -zxvf filebeat-7.12.0-linux-x86_64.tar.gz
mv filebeat-7.12.0-linux-x86_64 filebeat
filebeat输出到kafka,kafka,大数据,分布式
home是用户目录,个人习惯放在这个,你们也可以放在别的目录里。

二、配置Filebeat

修改filebeat配置文件,把filebeat收集到的日志保存到kafka消息队列中。
只需要修改input和output配置。
input配置(输入配置):
filebeat的输入配置在filebeat.inputs节点下。type为log,表明这是从文件获取输入。我们需要将log类型下的enabled的值置为true,在paths中编辑需要获取输入的文件,也可以使用通配符。例如采集的是日志文件。
进入filebeat目录编辑filebeat.yml文件
filebeat输出到kafka,kafka,大数据,分布式
采集的日志是自己创建的,后续添加信息可以被kafka实时接收到。

将path原来的路径注释掉。
output配置(输出配置):
我们需要将读取到的日志输出到Kafka集群中,而配制文件中默认没有Kafka集群的输出配置,因此需要在其中增加,并将output.elasticsearch和output.logstash都给注释掉。我们增加的Kafka集群配置如下图所示:
filebeat输出到kafka,kafka,大数据,分布式
kafka中如果不存在这个topic,则会自动创建。

启动filebeat

./filebeat -e -c filebeat.yml

filebeat输出到kafka,kafka,大数据,分布式

启动Kafka

注意:在启动kafka前先启动ZooKeeper,再开启一个session会话

  1. ZooKeeper启动:
    进入ZooKeeper的bin目录
    ./zkServer.sh start
    filebeat输出到kafka,kafka,大数据,分布式
    使用netstat -ano | grep 2181 命令监听端口
    filebeat输出到kafka,kafka,大数据,分布式
  2. kafka启动:
    进入 bin目录:
    ./kafka-server-start.sh …/config/server.properties 启动服务
    filebeat输出到kafka,kafka,大数据,分布式
  3. 查看topic列表

./kafka-topics.sh --list --zookeeper 192.168.192.132:2181
filebeat输出到kafka,kafka,大数据,分布式
可以看到产生了新的topic为newtest,接下来启动一个消费者去查看filebeat发送过来的消息,能看到消息说明我们的filebeat的output.kafka配置成功。
./kafka-console-consumer.sh --bootstrap-server 192.168.192.132:9092 --topic test --from-beginning

filebeat输出到kafka,kafka,大数据,分布式
配置完成文章来源地址https://www.toymoban.com/news/detail-573693.html

到了这里,关于Filebeat部署+Kafka接收消息的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 分布式运用之Filebeat+Kafka+ELK 的服务部署

    Kafka 中消息是以 topic 进行分类的,生产者生产消息,消费者消费消息,都是面向 topic 的。 topic 是逻辑上的概念,而 partition 是物理上的概念,每个 partition 对应于一个 log 文件,该 log 文件中存储的就是 producer 生产的数据。Producer 生产的数据会被不断追加到该 log 文件末端,

    2024年02月06日
    浏览(47)
  • 【ELK 使用指南 3】Zookeeper、Kafka集群与Filebeat+Kafka+ELK架构(附部署实例)

    分布式应用管理框架 。 Zookeeper是个开源的,分布式的,为分布式框架提供协调服务的Apach项目。 主要用于解决分布式应用集群中 应用系统的一致性问题 。 作为 文件系统 ,用于注册各种分布式应用, 储存管理分布式应用的元信息 ; 作为 通知机制 ,如果节点或者服务本身的

    2024年02月08日
    浏览(59)
  • k8s部署elk+filebeat;springCloud集成elk+filebeat+kafka+zipkin实现多个服务日志链路追踪聚合到es

    如今2023了,大多数javaweb架构都是springboot微服务,一个前端功能请求后台可能是多个不同的服务共同协做完成的。例如用户下单功能,js转发到后台 网关gateway服务 ,然后到 鉴权spring-sercurity服务 ,然后到 业务订单服务 ,然后到 支付服务 ,后续还有发货、客户标签等等服务

    2024年02月16日
    浏览(46)
  • Kafka数据采集至Elasticsearch的Filebeat配置

    Filebeat是一种轻量级的开源日志数据采集器,用于将各种日志数据发送到Elasticsearch等目标存储系统。本文将介绍如何使用Filebeat配置将Kafka中的数据采集并发送至Elasticsearch。 在开始之前,请确保已经安装并配置了Filebeat、Kafka和Elasticsearch。以下是配置的步骤: 配置Filebeat 打开

    2024年02月08日
    浏览(45)
  • k8s部署elk+filebeat+logstash+kafka集群(一)ES集群+kibana部署

    前言: 这次是在部署后很久才想起来整理了下文档,如有遗漏见谅,期间也遇到过很多坑有些目前还没头绪希望有大佬让我学习下 一、环境准备 k8s-master01 3.127.10.209 k8s-master02 3.127.10.95 k8s-master03 3.127.10.66 k8s-node01 3.127.10.233 k8s-node02 3.127.33.173 harbor 3.127.33.174 1、k8s各节点部署nf

    2023年04月23日
    浏览(40)
  • 【ELK企业级日志分析系统】部署Filebeat+Kafka+Logstash+Elasticsearch+Kibana集群详解(EFLFK)

    参见安装与部署ELK详解 参见安装与部署EFLK详解 参见安装与部署Zookeeper集群详解 1.1.1 为什么需要消息队列(MQ) MQ(Message Queue)主要原因是由于 在高并发环境下,同步请求来不及处理,请求往往会发生阻塞 。比如大量的并发请求,访问数据库,导致行锁表锁,最后请求线程会

    2024年02月16日
    浏览(49)
  • Kafka 概述、Filebeat+Kafka+ELK

    主要原因是由于在高并发环境下,同步请求来不及处理,请求往往会发生阻塞。比如大量的请求并发访问数据库,导致行锁表锁,最后请求线程会堆积过多,从而触发 too many connection 错误,引发雪崩效应。 我们使用消息队列,通过异步处理请求,从而缓解系统的压力。消息队

    2024年02月16日
    浏览(36)
  • EIK+Filebeat+Kafka

    目录 Kafka 概述 为什么需要消息队列(MQ) 使用消息队列的好处 消息队列的两种模式 Kafka 定义 Kafka 简介 Kafka 的特性 Kafka 系统架构 Partation 数据路由规则: 分区的原因 部署 kafka 集群 1.下载安装包 2.安装 Kafka 修改配置文件 修改环境变量 配置 Zookeeper 启动脚本 设置开机自启

    2024年02月16日
    浏览(31)
  • filebeat到kafka示例

     docker run -d   --name=filebeat_7.14_0            #filebeat名称   --user=root   --volume=\\\"/data/filebeat/filebeat.yml:/usr/share/filebeat/filebeat.yml\\\"  #映射filebeat.yml配置   --volume=\\\"/data/filebeat/log:/usr/share/filebeat/log\\\"             #映射filebeat日志   --volume=\\\"/data/filebeat/data:/usr/share/filebeat/data\\\"

    2024年02月15日
    浏览(47)
  • Filebeat+Kafka+ELK

    目录 1 Kafka 架构深入 1.1 Kafka 工作流程及文件存储机制 1.2 数据可靠性保证 2.1 部署 Zookeeper+Kafka 集群 2.2 部署 Filebeat Kafka 中消息是以 topic 进行分类的,生产者生产消息,消费者消费消息,都是面向 topic 的。 topic 是逻辑上的概念,而 partition 是物理上的概念,每个 partition 对应

    2024年02月08日
    浏览(38)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包