二百零五、Flume——数据流监控工具Ganglia单机版安装以及使用Ganglia监控Flume任务的数据流(附流程截图)

一、目的

Flume采集Kafka的数据流需要实时监控,这时就需要用到监控工具Ganglia

二、Ganglia简介

Ganglia 由 gmond、gmetad 和 gweb 三部分组成。

(一)第一部分:gmond

gmond(Ganglia Monitoring Daemon)是一种轻量级服务,安装在每台需要收集指标数据的节点主机上。
使用 gmond可以很容易收集很多系统指标数据,如 CPU、内存、磁盘、网络和活跃进程的数据等。

(二)第二部分:gmetad

gmetad(Ganglia Meta Daemon)整合所有信息,并将其以 RRD 格式存储至磁盘的服务。

(三)第三部分:gweb

gweb(Ganglia Web)Ganglia 可视化工具,gweb 是一种利用浏览器显示 gmetad 所存储数据的 PHP 前端。
在 Web 界面中以图表方式展现集群的运行状态下收集的多种不同指标数据。

三、Ganglia单机版安装步骤

(一)下载epel-release和ganglia

yum -y install epel-release
 
yum -y install ganglia-gmetad
yum -y install ganglia-web
yum -y install ganglia-gmond

(二)修改配置文件ganglia.conf

[root@hurys22 ~]# vi  /etc/httpd/conf.d/ganglia.conf
<Location /ganglia>
    Require ip 192.168.0.22
  # Require ip 10.1.2.3
  # Require host example.org
    Require all granted
</Location>

(三)修改配置文件gmetad.conf

[root@hurys22 ~]# vi  /etc/ganglia/gmetad.conf
44 data_source "my cluster" hurys22

(四)修改配置文件gmond.conf

[root@hurys22 ~]# vi  /etc/ganglia/gmond.conf
     30   name = "my cluster"
     31   owner = "unspecified"
     32   latlong = "unspecified"
     33   url = "unspecified"

     50   host = hurys22
     51   port = 8649
     52   ttl = 1
     
     57   # mcast_join = 239.2.11.71
     58   port = 8649
     # 接收来自任意连接的数据
     59   bind = 0.0.0.0
     60   retry_bind = true

(五)修改配置文件config

[root@hurys22 ~]# vi  /etc/selinux/config
SELINUX=disabled

(六)文件赋权

[root@hurys22 ~]#  chmod -R 777 /var/lib/ganglia

(七)重启

[root@hurys22 ~]#  reboot

(八)启动 ganglia

 [root@hurys22 ~]# sudo systemctl start gmond
 [root@hurys22 ~]# sudo systemctl start httpd
 [root@hurys22 ~]# sudo systemctl start gmetad

 (九)打开网页浏览 ganglia 页面 

http://hurys22/ganglia

(十)使用Ganglia监控Flume

1、修改Flume配置文件flume-env.sh

[root@hurys22 ~]# cd /usr/local/hurys/dc_env/flume/flume190/conf/
[root@hurys22 conf]# vi flume-env.sh

export JAVA_OPTS="-Dflume.monitoring.type=ganglia -Dflume.monitoring.hosts=192.168.0.22:8649 -Xms8000m -Xmx8000m -Dcom.sun.management.jmxremote"

2、创建Flume任务文件 flume-netcat-logger.conf

[root@hurys22 conf]# vi flume-netcat-logger.conf

# Name the components on this agent
a1.sources = r1
a1.sinks = k1
a1.channels = c1
# Describe/configure the source
a1.sources.r1.type = netcat
a1.sources.r1.bind = localhost
a1.sources.r1.port = 44444
# Describe the sink
a1.sinks.k1.type = logger
# Use a channel which buffers events in memory
a1.channels.c1.type = memory
a1.channels.c1.capacity = 1000
a1.channels.c1.transactionCapacity = 100
# Bind the source and sink to the channel
a1.sources.r1.channels = c1
a1.sinks.k1.channel = c1

3、运行Flume任务

[root@hurys22 flume190]# bin/flume-ng agent -c conf/ -n a1 -f conf/flume-netcat-logger.conf -Dflume.root.logger=INFO,console -Dflume.monitoring.type=ganglia -Dflume.monitoring.hosts=192.168.0.22:8649

或者

bin/flume-ng agent \
-c conf/ \
-n a1 \
-f conf/flume-netcat-logger.conf \
-Dflume.root.logger=INFO,console \
-Dflume.monitoring.type=ganglia \
-Dflume.monitoring.hosts=192.168.0.22:8649


4、使用44444端口发送数据

5、Flume运行界面显示任务运行

6、Ganglia监控图

这样Ganglia就能监控Flume的数据流,希望能帮到大家!

  • 6
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
使用Flume采集某端口的实时数据流并存入Kafka指定的Topic中,需要按照以下步骤进行操作: 1. 安装KafkaFlume。确保在服务器上安装KafkaFlume。 2. 创建Kafka Topic。使用Kafka的命令行工具创建一个Topic。 3. 创建Flume配置文件。在Flume的conf目录下创建一个新的配置文件,并添加以下内容: ``` agent.sources = source1 agent.channels = channel1 agent.sinks = sink1 agent.sources.source1.type = netcat agent.sources.source1.bind = localhost agent.sources.source1.port = [port_number] agent.channels.channel1.type = memory agent.sinks.sink1.type = org.apache.flume.sink.kafka.KafkaSink agent.sinks.sink1.topic = [topic_name] agent.sinks.sink1.bootstrap.servers = [kafka_server_url] agent.sinks.sink1.required.acks = 1 agent.sources.source1.channels = channel1 agent.sinks.sink1.channel = channel1 ``` 将[port_number]替换为要监听的端口号,[topic_name]替换为Kafka Topic名称,[kafka_server_url]替换为Kafka服务器的地址。保存文件并退出。 4. 启动Flume Agent。在命令行中启动Flume Agent,指定Flume配置文件的路径: ``` $ bin/flume-ng agent --conf conf --conf-file [path_to_file]/[flume_config_file] --name agent -Dflume.root.logger=INFO,console ``` 其中,[path_to_file]是Flume配置文件所在的路径,[flume_config_file]是Flume配置文件的名称。示例命令如下: ``` $ bin/flume-ng agent --conf conf --conf-file /root/flume.conf --name agent -Dflume.root.logger=INFO,console ``` 5. 测试数据流使用telnet可以连接到指定端口并向其发送数据,可以验证Flume是否正在接收数据并将其发送到Kafka Topic中。 通过以上步骤,可以使用Flume采集某端口的实时数据流并存入Kafka指定的Topic中。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

天地风雷水火山泽

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值