大数据学习7之分布式日志收集框架Flume——Flume实战应用之监控一个文件实时采集新增的数据输出到控制台

监控一个文件实时采集新增的数据输出到控制台

Agent选型: exec source +memory channel + logger sink
在这里插入图片描述

(1)在/home/hadoop/data目录下新建data.log文件

(2)到$FLUME_HOME/conf目录下创建配置文件exec-memory-logger.conf

# example.conf: A single-node Flume configuration

# Name the components on this agent     
# 解析:a1代表agent的名称,r1代表source的名称,k1代表sink的名称,c1代表channel的名称
a1.sources = r1
a1.sinks = k1
a1.channels = c1

# Describe/configure the source
# 详见官网 Exec Source配置说明
a1.sources.r1.type = exec
a1.sources.r1.command = tail -F /home/hadoop/data/data.log
a1.sources.r1.shell = /bin/sh -c


# Describe the sink
# 详见官网 logger sink配置说明
a1.sinks.k1.type = logger

# Use a channel which buffers events in memory
# 详见官网 memory channel
a1.channels.c1.type = memory
#a1.channels.c1.capacity = 1000
#a1.channels.c1.transactionCapacity = 100

# Bind the source and sink to the channel
# source-channel-sink      一个source可以输出到多个channel,一个channel只能输出到一个sink
a1.sources.r1.channels = c1
a1.sinks.k1.channel = c1

(3)启动agent

flume-ng agent \
--name a1 \
--conf $FLUME_HOME/conf   \
--conf-file $FLUME_HOME/conf/exec-memory-logger.conf \
-Dflume.root.logger=INFO,console

(4)通过往监控文件追加数据进行测试

在这里插入图片描述
在这里插入图片描述

扩展:如果要监控一个文件实时采集新增的数据,做离线处理,应该输出到HDFS,可以使用HDFS Sink;如果做实时处理,应该输出到Kafka,应该使用Kafka Sink。

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值