(二十四)大数据实战——Flume数据流监控之Ganglia的安装与部署

前言

本节内容我们主要介绍一下Flume数据流的监控工具Ganglia。Ganglia是一个开源的分布式系统性能监控工具。它被设计用于监视大规模的计算机群集(包括集群、网格和云环境),以便收集和展示系统和应用程序的性能数据。Ganglia 可以轻松地扩展到数千台计算机节点,并支持跨多个数据中心进行分布式监控。Ganglia 使用高效的多播通信协议和紧凑的数据格式,以最小化对网络和系统资源的影响。Ganglia 提供实时监控和报告功能,可以显示关键指标(如 CPU 使用率、内存使用率、网络流量等)的实时数据和历史趋势。Ganglia 提供直观的 Web 界面,可以通过图表和图形方式展示系统性能数据,方便用户进行可视化分析。Ganglia 支持插件机制,可以扩展其功能并与其他工具和服务集成。

正文

  • 服务规划

Ganglia
hadoop101hadoop102hadoop103
gweb
gmetad
gmodgmodgmod
  • Ganglia组件说明

gmond(Ganglia Monitoring Daemon):是一种轻量级服务,安装在每台需要收集指标数据的节点主机上。使用 gmond,你可以很容易收集很多系统指标数据,如 CPU、内存、磁盘、 网络和活跃进程的数据等。

gmetad(Ganglia Meta Daemon):整合所有信息,并将其以 RRD 格式存储至磁盘的服务。

gweb(Ganglia Web)Ganglia :可视化工具,gweb 是一种利用浏览器显示 gmetad 所存储数据的 PHP前端。在Web界面中以图表方式展现集群的运行状态下收集的多种不同指标数 据。

  • 在hadoop101、hadoop102、hadoop103分别安装epel-release

- 命令:sudo yum -y install epel-release 

  •  在hadoop101上安装ganglia-gmetad、ganglia-web、ganglia-gmond

- 命令:

sudo yum -y install ganglia-gmetad

sudo yum -y install ganglia-gmond

sudo yum -y install ganglia-web

  • 在hadoop102和hadoop103上安装ganglia-gmond 

- 命令:

sudo yum -y install ganglia-gmond

  •  在hadoop101服务器修改/etc/httpd/conf.d/ganglia.conf配置文件

- 使得该网段地址192.168.10.0/24都能访问ganglia-web

  •  在hadoop101服务器修改/etc/ganglia/gmetad.conf配置文件

- 修改元数据的存储位置

  • 在hadoop101、hadoop102、hadoop 103 修改配置文件/etc/ganglia/gmond.conf 

- 修改hadoop101的gmond.conf 配置

- 同步配置到hadoop102和hadoop103

  • 将hadoop101配置文件/etc/selinux/config中的SELINUX修改为disabled

  • 启动ganglia的监控服务

- 在hadoop101、hadoop02、hadoop103启动gmond服务:sudo systemctl start gmond

- 在hadoop101启动httpd和gmetad服务

  • 访问ganglia的web端页面

 

  •  开启一个flume监控任务,查看ganglia的web端页面查看监控指标

- 在hadoop101服务器上启动一个flume监控任务

bin/flume-ng agent \
-c conf/ \
-n a1 \
-f job/job-netcat-flume-console.conf \
-Dflume.root.logger=INFO,console \
-Dflume.monitoring.type=ganglia \
-Dflume.monitoring.hosts=hadoop101:8649

  • 图例说明
图例说明
EventPutAttemptCountsource 尝试写入 channel 的事件总数量
EventPutSuccessCount成功写入 channel 且提交的事件总数量
EventTakeAttemptCount sink 尝试从 channel 拉取事件的总数量。
EventTakeSuccessCountsink 成功读取的事件的总数量
StartTimechannel 启动的时间(毫秒)
StopTimechannel 停止的时间(毫秒)
ChannelSize目前 channel 中事件的总数量
ChannelFillPercentagechannel 占用百分比
ChannelCapacitychannel 的容量

结语

关于Flume数据流监控之Ganglia的安装与部署内容到这里就结束了,我们下期见。。。。。。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
大数据平台自动化部署是一项相对复杂而且需要耗费一定时间的工作,但它能够大大提高大数据平台的部署效率和可靠性。下面是一个基于Hadoop生态的自动化部署平台的搭建步骤: 1. 确定部署环境 首先需要确定部署环境的配置,包括硬件配置、操作系统、网络等。一般来说,大数据平台需要较高的计算、存储和网络性能,推荐使用64位操作系统,至少8GB内存,至少2个CPU核心。 2. 安装Java Hadoop等大数据平台是基于Java开发的,因此需要安装Java运行环境。可以从Oracle官网下载JDK安装包,然后按照提示进行安装。 3. 安装Hadoop Hadoop是大数据平台的核心组件之一,需要先安装Hadoop。可以从Apache官网下载Hadoop安装包,并按照官方文档进行安装和配置。 4. 安装Zookeeper Zookeeper是一个分布式协调服务,是Hadoop集群中必不可少的组件之一。可以从Apache官网下载Zookeeper安装包,然后按照官方文档进行安装和配置。 5. 安装Hive Hive是一个基于Hadoop的数据仓库工具,可以方便地进行数据分析和查询。可以从Apache官网下载Hive安装包,然后按照官方文档进行安装和配置。 6. 安装HBase HBase是一个分布式的NoSQL数据库,可以存储海量数据。可以从Apache官网下载HBase安装包,然后按照官方文档进行安装和配置。 7. 安装Spark Spark是一个快速、通用、可扩展的大数据处理引擎。可以从Apache官网下载Spark安装包,然后按照官方文档进行安装和配置。 8. 安装其他组件 根据实际需求,可以安装其他大数据组件,比如Kafka、Flume、Storm等。 9. 配置自动化部署工具 选择一个适合自己的自动化部署工具,比如Puppet、Ansible、Chef等,并按照其官方文档进行配置和使用。 10. 编写部署脚本 根据自己的需求和实际情况,编写自动化部署脚本,包括安装和配置大数据组件、启动和停止服务等。 11. 测试和调试 完成自动化部署平台的搭建后,需要进行测试和调试,确保每个组件都能正常运行,部署过程中没有任何问题。 以上就是基于Hadoop生态的自动化部署平台的搭建步骤。需要注意的是,每个组件安装和配置都比较复杂,需要仔细阅读官方文档,并按照要求进行操作。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

厉害哥哥吖

您的支持是我创作下去的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值