Flume 学习 —— 案例二:Flume 监听日志文件,并将文件上传至 HDFS

本文档介绍了如何使用Flume监听ResourceManage的日志文件,并将其上传到HDFS。首先,在Flume的conf目录下创建job文件夹和flume-file-hdfs.conf配置文件,配置内容包括源、通道和接收器的设置。接着,确保HDFS和YARN集群已启动,然后执行Flume监控配置。最后,检查HDFS上是否成功创建了日志文件,关闭监控时可通过Ctrl+C或直接停止Flume进程。
摘要由CSDN通过智能技术生成

案例二:Flume 监听日志文件,并将文件上传至 HDFS

创建配置文件

1.在这里,我使用 Flume 监听的是 ResourceManage 节点的日志文件
2.在 flume 的 conf 同级目录下创建 job 文件夹,并在 job 文件夹内创建 flume-file-hdfs.conf

cd /usr/wang/flume
mkdir job
cd job
vim flume-file-hdfs.conf

将下方文件拷贝到 flume-file-hdfs.conf 中

# Name the components on this agent
a1.sources = r1
a1.sinks = k1
a1.channels = c1

# Describe/configure the source
a1.sources.r1.type = exec
a1.sources.r1.command = tail -f /usr/wang/hadoop/logs/yarn-spark-resourcemanager-master.log
a1.sources.r1.shell = /bin/bash -c

# Describe the sink
a1.sinks.k1.type = hdfs
a1.sinks.k1.hdfs.path = hdfs://master:9000/flume/%Y%m%d/%H
#上传文件的前缀
a1.sinks.k1.hdfs.filePrefix = events-RM-
#是否按照时间滚动文件夹
a1.sinks.k1.hdfs.round = true
#多少时间单位创建一个新的文件夹
a1.sinks.k1.hdfs.roundValue = 1
#重新定义时间单位
a1.sinks.k1.hdfs.roundUnit = hour
#是否
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值