(二十四)大数据实战——Flume数据流监控之Ganglia的安装与部署

这篇具有很好参考价值的文章主要介绍了(二十四)大数据实战——Flume数据流监控之Ganglia的安装与部署。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

前言

本节内容我们主要介绍一下Flume数据流的监控工具Ganglia。Ganglia是一个开源的分布式系统性能监控工具。它被设计用于监视大规模的计算机群集(包括集群、网格和云环境),以便收集和展示系统和应用程序的性能数据。Ganglia 可以轻松地扩展到数千台计算机节点,并支持跨多个数据中心进行分布式监控。Ganglia 使用高效的多播通信协议和紧凑的数据格式,以最小化对网络和系统资源的影响。Ganglia 提供实时监控和报告功能,可以显示关键指标(如 CPU 使用率、内存使用率、网络流量等)的实时数据和历史趋势。Ganglia 提供直观的 Web 界面,可以通过图表和图形方式展示系统性能数据,方便用户进行可视化分析。Ganglia 支持插件机制,可以扩展其功能并与其他工具和服务集成。

正文

  • 服务规划

Ganglia
hadoop101 hadoop102 hadoop103
gweb
gmetad
gmod gmod gmod
  • Ganglia组件说明

gmond(Ganglia Monitoring Daemon):是一种轻量级服务,安装在每台需要收集指标数据的节点主机上。使用 gmond,你可以很容易收集很多系统指标数据,如 CPU、内存、磁盘、 网络和活跃进程的数据等。

gmetad(Ganglia Meta Daemon):整合所有信息,并将其以 RRD 格式存储至磁盘的服务。

gweb(Ganglia Web)Ganglia :可视化工具,gweb 是一种利用浏览器显示 gmetad 所存储数据的 PHP前端。在Web界面中以图表方式展现集群的运行状态下收集的多种不同指标数 据。

  • 在hadoop101、hadoop102、hadoop103分别安装epel-release

- 命令:sudo yum -y install epel-release 

(二十四)大数据实战——Flume数据流监控之Ganglia的安装与部署,大数据,大数据,flume

(二十四)大数据实战——Flume数据流监控之Ganglia的安装与部署,大数据,大数据,flume

(二十四)大数据实战——Flume数据流监控之Ganglia的安装与部署,大数据,大数据,flume

  •  在hadoop101上安装ganglia-gmetad、ganglia-web、ganglia-gmond

- 命令:

sudo yum -y install ganglia-gmetad

sudo yum -y install ganglia-gmond

sudo yum -y install ganglia-web

(二十四)大数据实战——Flume数据流监控之Ganglia的安装与部署,大数据,大数据,flume

(二十四)大数据实战——Flume数据流监控之Ganglia的安装与部署,大数据,大数据,flume

(二十四)大数据实战——Flume数据流监控之Ganglia的安装与部署,大数据,大数据,flume

  • 在hadoop102和hadoop103上安装ganglia-gmond 

- 命令:

sudo yum -y install ganglia-gmond

(二十四)大数据实战——Flume数据流监控之Ganglia的安装与部署,大数据,大数据,flume

(二十四)大数据实战——Flume数据流监控之Ganglia的安装与部署,大数据,大数据,flume

  •  在hadoop101服务器修改/etc/httpd/conf.d/ganglia.conf配置文件

- 使得该网段地址192.168.10.0/24都能访问ganglia-web

(二十四)大数据实战——Flume数据流监控之Ganglia的安装与部署,大数据,大数据,flume

  •  在hadoop101服务器修改/etc/ganglia/gmetad.conf配置文件

- 修改元数据的存储位置

(二十四)大数据实战——Flume数据流监控之Ganglia的安装与部署,大数据,大数据,flume

  • 在hadoop101、hadoop102、hadoop 103 修改配置文件/etc/ganglia/gmond.conf 

- 修改hadoop101的gmond.conf 配置

(二十四)大数据实战——Flume数据流监控之Ganglia的安装与部署,大数据,大数据,flume

- 同步配置到hadoop102和hadoop103

(二十四)大数据实战——Flume数据流监控之Ganglia的安装与部署,大数据,大数据,flume

  • 将hadoop101配置文件/etc/selinux/config中的SELINUX修改为disabled

(二十四)大数据实战——Flume数据流监控之Ganglia的安装与部署,大数据,大数据,flume

  • 启动ganglia的监控服务

- 在hadoop101、hadoop02、hadoop103启动gmond服务:sudo systemctl start gmond

(二十四)大数据实战——Flume数据流监控之Ganglia的安装与部署,大数据,大数据,flume

(二十四)大数据实战——Flume数据流监控之Ganglia的安装与部署,大数据,大数据,flume

(二十四)大数据实战——Flume数据流监控之Ganglia的安装与部署,大数据,大数据,flume

- 在hadoop101启动httpd和gmetad服务

(二十四)大数据实战——Flume数据流监控之Ganglia的安装与部署,大数据,大数据,flume

(二十四)大数据实战——Flume数据流监控之Ganglia的安装与部署,大数据,大数据,flume

  • 访问ganglia的web端页面

(二十四)大数据实战——Flume数据流监控之Ganglia的安装与部署,大数据,大数据,flume(二十四)大数据实战——Flume数据流监控之Ganglia的安装与部署,大数据,大数据,flume 

  •  开启一个flume监控任务,查看ganglia的web端页面查看监控指标

- 在hadoop101服务器上启动一个flume监控任务

bin/flume-ng agent \
-c conf/ \
-n a1 \
-f job/job-netcat-flume-console.conf \
-Dflume.root.logger=INFO,console \
-Dflume.monitoring.type=ganglia \
-Dflume.monitoring.hosts=hadoop101:8649

(二十四)大数据实战——Flume数据流监控之Ganglia的安装与部署,大数据,大数据,flume

(二十四)大数据实战——Flume数据流监控之Ganglia的安装与部署,大数据,大数据,flume

(二十四)大数据实战——Flume数据流监控之Ganglia的安装与部署,大数据,大数据,flume

  • 图例说明
图例说明
EventPutAttemptCount source 尝试写入 channel 的事件总数量
EventPutSuccessCount 成功写入 channel 且提交的事件总数量
EventTakeAttemptCount sink 尝试从 channel 拉取事件的总数量。
EventTakeSuccessCount sink 成功读取的事件的总数量
StartTime channel 启动的时间(毫秒)
StopTime channel 停止的时间(毫秒)
ChannelSize 目前 channel 中事件的总数量
ChannelFillPercentage channel 占用百分比
ChannelCapacity channel 的容量

结语

关于Flume数据流监控之Ganglia的安装与部署内容到这里就结束了,我们下期见。。。。。。文章来源地址https://www.toymoban.com/news/detail-709656.html

到了这里,关于(二十四)大数据实战——Flume数据流监控之Ganglia的安装与部署的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • (二十八)大数据实战——Flume数据采集之kafka数据生产与消费集成案例

    本节内容我们主要介绍一下flume数据采集和kafka消息中间键的整合。通过flume监听nc端口的数据,将数据发送到kafka消息的first主题中,然后在通过flume消费kafka中的主题消息,将消费到的消息打印到控制台上。集成使用flume作为kafka的生产者和消费者。关于nc工具、flume以及kafka的

    2024年02月09日
    浏览(53)
  • 大数据之使用Flume监听端口采集数据流到Kafka

    前言 题目: 一、读题分析 二、处理过程   1.先在Kafka中创建符合题意的Kafka的topic  创建符合题意的Kafka的topic 2.写出Flume所需要的配置文件 3.启动脚本然后启动Flume监听端口数据并传到Kafka 启动flume指令 启动脚本,观察Flume和Kafka的变化 三、重难点分析 总结          本题

    2024年02月08日
    浏览(59)
  • 软考A计划-真题-分类精讲汇总-第十四章(数据流图)

    点击跳转专栏=Unity3D特效百例 点击跳转专栏=案例项目实战源码 点击跳转专栏=游戏脚本-辅助自动化 点击跳转专栏=Android控件全解手册 点击跳转专栏=Scratch编程案例 专注于 Android/Unity 和各种游戏开发技巧,以及 各种资源分享 (网站、工具、素材、源码、游戏等) 有什么需要

    2024年02月05日
    浏览(91)
  • Spark实时数据流分析与可视化:实战指南【上进小菜猪大数据系列】

    上进小菜猪,沈工大软件工程专业,爱好敲代码,持续输出干货。 本文介绍了如何利用Apache Spark技术栈进行实时数据流分析,并通过可视化技术将分析结果实时展示。我们将使用Spark Streaming进行数据流处理,结合常见的数据处理和可视化库,实现实时的数据流分析和可视化展

    2024年02月07日
    浏览(51)
  • (十九)大数据实战——Flume数据采集框架安装部署

    本节内容我们主要介绍一下大数据数据采集框架flume的安装部署,Flume 是一款流行的开源分布式系统,用于高效地采集、汇总和传输大规模数据。它主要用于处理大量产生的日志数据和事件流。Flume 支持从各种数据源(如日志文件、消息队列、数据库等)实时采集数据,并将

    2024年02月10日
    浏览(46)
  • 什么是Vue的数据流(单向数据流)?如何进行数据流管理

    在Vue中,数据流是指数据的传递和管理方式。Vue采用的是单向数据流,也就是说,数据是从父组件流向子组件,子组件不能直接修改父组件的数据。本文将介绍Vue的数据流机制,以及如何进行数据流管理。 Vue的数据流机制可以分为两类:props和events。 Props 在Vue中,父组件可以

    2024年02月08日
    浏览(62)
  • 银行储蓄系统的顶层数据流图及细化数据流图

    绘制出银行储蓄系统的顶层数据流图及细化数据流图; 银行储蓄系统存、取款流程如下: 1)业务员事先录入利率信息; 2)如果是存款,储户填写存款单,业务员将存款单键入系统,系统更新储户存款信息(存款人姓名、存款人账号、电话号码、身份证号码、存款金额、存

    2024年01月17日
    浏览(48)
  • Elasticsearch:将 ILM 管理的数据流迁移到数据流生命周期

    警告 :此功能处于技术预览阶段,可能会在未来版本中更改或删除。 Elastic 将努力解决任何问题,但技术预览版中的功能不受官方 GA 功能的支持 SLA 的约束。目前的最新版本为 8.12。 在本教程中,我们将了解如何将现有数据流(data stream)从索引生命周期管理 (ILM) 迁移到数据

    2024年04月29日
    浏览(46)
  • 数据流图(DFD)

    数据流图是用于表示系统逻辑模型的一种工具。从数据 传递和加工 的角度,以图形的方式描述数据在系统中流动和处理的过程 数据字典是指对数据的数据项、数据结构、数据流、数据存储、处理逻辑等进行定义和描述,其目的是 对数据流图中的各个元素做出详细的说明 ,

    2024年02月04日
    浏览(51)
  • postman 数据流请求

    备注: Postman version : Version 9.21.3 Windows 版本 1.修改headers 2.Body 部分 选择raw 格式数据 3.最后执行请求

    2024年02月11日
    浏览(63)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包