Interceptor(拦截器)本身是Source的子组件之一,可以对数据进行拦截、过滤、替换等操作。不同于Selector的地方在于,一个Source上可以配置多个拦截器,构成拦截器链。需要注意的是,后一个拦截器不能和前一个拦截器相悖
Timestamp Interceptor
时间戳拦截器,本质上不是拦截数据,而是在数据的headers字段中添加一个时间戳,可以用于标记数据被收集的时间。
这个拦截器会向每个event的header中添加一个时间戳属性进去,key默认是“timestamp ”(也可以通过下面表格中的header来自定义),value就是当前的毫秒值(其实就是用System.currentTimeMillis()方法得到的)。如果event已经存在同名的属性,可以选择是否保留原始的值。
时间添加拦截器测试:
(1)再次运行 入门案例 中的测试,观察 event header信息
启动flume
flume-ng agent -c $FLUME_HOME/conf -n a1 -f port-listener-logger.conf -Dflume.root.logger=INFO,console
发送数据 nc m1 9999
可以看见 header 为空
在入门案例的基础上,在配置文件中增加时间拦截器的配置。命名为timestamp.conf
# a1 表示 Agent 的名称,在启动 Flume 的时候指定
# 创建一个 Source,名叫 r1
a1.sources = r1
# 创建一个 Channel,名叫 c1
a1.channels = c1
# 创建一个 Sink,名叫 k1
a1.sinks = k1
# 指定 a1 的输入源类型为端口类型,也就是数据要通过指定的端口发送
# 这里监听本地的 9999 端口
a1.sources.r1.type = netcat
a1.sources.r1.bind = m1
a1.sources.r1.port = 9999
# 这部分是新增 时间拦截器的 内容
a1.sources.r1.interceptors = i1
a1.sources.r1.interceptors.i1.type = timestamp
# # 是否保留Event header中已经存在的同名时间戳,缺省值false
a1.sources.r1.interceptors.i1.preserveExisting= false
# # 这部分是新增 时间拦截器的 内容
#
# 表示 a1 的 Channel 类型是 memory,总容量是 1000 个 Event
# 并且每收集 100 个再去提交事务
a1.channels.c1.type = memory
a1.channels.c1.capacity = 1000
a1.channels.c1.transactionCapacity = 100
# 表示 a1 的输出是日志类型
a1.sinks.k1.type = logger
# 将 r1 和 k1 绑定到 c1 上,r1 会写入数据到 c1,然后 k1 会从 c1 读数据
a1.sources.r1.channels = c1
# 注意这里的 channel 后面没有 s,因为一个 Sink 只能绑定一个 Channel
a1.sinks.k1.channel = c1
启动flume
flume-ng agent -c $FLUME_HOME/conf -n a1 -f timestamp.conf -Dflume.root.logger=INFO,console
发送数据 nc m1 9999
可以看见 header 不为空 ,可以看见 event header 中出现了时间戳信息。
结合hdfs 实现按天存放
编写数据文件
a1.sources=r1
a1.channels=c1
a1.sinks=k1
#配置r1的输入源为avro
a1.sources.r1.type=netcat
a1.sources.r1.bind = m1
a1.sources.r1.port= 6666
a1.sinks.k1.type = hdfs
# 这部分是新增 时间拦截器的 内容
a1.sources.r1.interceptors = i1
a1.sources.r1.interceptors.i1.type = timestamp
# # 是否保留Event header中已经存在的同名时间戳,缺省值false
a1.sources.r1.interceptors.i1.preserveExisting= false
# # 这部分是新增 时间拦截器的 内容
a1.sinks.k1.hdfs.path=hdfs://m1:9000/flumedata/date=%Y-%m-%d
a1.sinks.k1.hdfs.fileType = DataStream
a1.sinks.k1.hdfs.rollInterval = 3600
a1.channels.c1.type=memory
a1.sources.r1.channels=c1
a1.sinks.k1.channel=c1
~
启动flume
flume-ng agent -c $FLUME_HOME/conf -n a1 -f hdfstimstamp.conf -Dflume.root.logger=INFO,console
启动hadoop
start-dfs.sh
start-yarn.sh
jps
发送数据
nc m1 6666
查看数据使用hdfs explorer,有按天形成的文件夹