监听单个文件,source要指定为exec
缺陷:
如果执行flume采集过程中,该agent意外结束,重新启动时会再次读取文件内容到指定目录。造成数据重复。
# 定义agent名字 a1
# 定义sources、channels、sinks 都可以有多个,空格隔开
a1.sources = r1
a1.channels = c1
a1.sinks = k1
# 设置source
a1.sources.r1.type = exec
# source要执行的命令 监控的文件
a1.sources.r1.command = tail -F /opt/module/flume/demo/test1.log
# 设置channel
a1.channels.c1.type = memory
a1.channels.c1.capacity = 1000
# 设置sink
a1.sinks.k1.type = hdfs
# 设置hdfs目录
a1.sinks.k1.hdfs.path = hdfs://hadoop01:8020/flume/logs/%Y-%m-%d/%H
# 设置启用本地时间戳,否则上面的时间序列无法使用
a1.sinks.k1.hdfs.useLocalTimeStamp = true
# 设置按照时间滚动文件夹
a1.sinks.k1.hdfs.round = true
# 设置创建文件夹时间
a1.sinks.k1.hdfs.roundValue = 1
# 重新定义时间单位
a1.sinks.k1.hdfs.roundUnit = hour
# 设置文件前缀
a1.sinks.k1.hdfs.filePrefix = logs-
# 设置文件滚动时间(秒)
a1.sinks.k1.hdfs.rollInterval = 60
# 设置文件滚动大小(字节) 约128M
a1.sinks.k1.hdfs.rollSize = 134217700
# 设置文件滚动需要的Event数量 0表示不启用
a1.sinks.k1.hdfs.rollCount = 0
# 设置Event刷新到hdfs数量
a1.sinks.k1.hdfs.batchSize = 100
# 设置存储文件类型,支持压缩
a1.sinks.k1.hdfs.fileType = DataStream
# 绑定source、channel、sink
a1.sources.r1.channels = c1
a1.sinks.k1.channel = c1