Flume将数据输出到HDFS

本文档详细介绍了如何配置Flume来实时监控并把/opt/module/hive/logs/hive.log的日志文件传输到HDFS。配置中,Flume agent名为a2,源r2采用exec类型,监听hive.log的更新;sink k2设置为hdfs类型,数据保存路径为hdfs://hadoop102:8020/flume按日期和小时划分目录,文件名前缀为logs-,并设定了一系列滚动策略。此外,使用了内存通道c2进行数据缓冲。
摘要由CSDN通过智能技术生成

a2.sources = r2

a2.sinks = k2

a2.channels = c2

a2.sources.r2.type = exec

a2.sources.r2.command = tail -F /opt/module/hive/logs/hive.log

a2.sources.r2.shell = /bin/bash -c

a2.sinks.k2.type = hdfs

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值