案例二:Flume 监听日志文件,并将文件上传至 HDFS
创建配置文件
1.在这里,我使用 Flume 监听的是 ResourceManage 节点的日志文件
2.在 flume 的 conf 同级目录下创建 job 文件夹,并在 job 文件夹内创建 flume-file-hdfs.conf
cd /usr/wang/flume
mkdir job
cd job
vim flume-file-hdfs.conf
将下方文件拷贝到 flume-file-hdfs.conf 中
# Name the components on this agent
a1.sources = r1
a1.sinks = k1
a1.channels = c1
# Describe/configure the source
a1.sources.r1.type = exec
a1.sources.r1.command = tail -f /usr/wang/hadoop/logs/yarn-spark-resourcemanager-master.log
a1.sources.r1.shell = /bin/bash -c
# Describe the sink
a1.sinks.k1.type = hdfs
a1.sinks.k1.hdfs.path = hdfs://master:9000/flume/%Y%m%d/%H
#上传文件的前缀
a1.sinks.k1.hdfs.filePrefix = events-RM-
#是否按照时间滚动文件夹
a1.sinks.k1.hdfs.round = true
#多少时间单位创建一个新的文件夹
a1.sinks.k1.hdfs.roundValue = 1
#重新定义时间单位
a1.sinks.k1.hdfs.roundUnit = hour
#是否