案例三:Flume 监听本地目录,并将目录下文件上传至 HDFS
创建配置文件
1.在这里,我使用 Flume 监听的是 /usr/wang/data/upload 目录下的文件
2.在 flume 的 conf 同级目录下创建 job 文件夹,并在 job 文件夹内创建 flume-dir-hdfs.conf
cd /usr/wang/flume
mkdir job
cd job
vim flume-dir-hdfs.conf
将下方文件拷贝到 flume-dir-hdfs.conf 中
a1.sources = r1
a1.sinks = k1
a1.channels = c1
# Describe/configure the source
a1.sources.r1.type = spooldir
a1.sources.r1.spoolDir = /usr/wang/data/upload
a1.sources.r1.fileHeader = true
#忽略所有以.tmp结尾的文件,不上传
a1.sources.r1.ignorePattern = ([^ ]*\.tmp)
# Describe the sink
a1.sinks.k1.type = hdfs
a1.sinks.k1.hdfs.path = hdfs://master:9000/flume/upload/%Y%m%d/%H
#上传文件的前缀
a1.sinks.k1.hdfs.filePrefix = upload-
#是否按照时间滚动文件夹
a1.sinks.k1.hdfs.round = true
#多少时间单位创建一个新的文件夹
a1.sinks.k1.hdfs.roundValue = 1
#重新定义时间单位
a1.sinks.k1.hdfs.rou