Flume采集HDFS audit log日志至HDFS

本文介绍了如何应对HDFS审计日志产生的大量数据,通过Apache Flume实现审计日志从系统盘实时持久化到HDFS,以避免数据丢失或磁盘满的问题。该方法应用于HDFS废弃文件和Hive废弃表的检测与清理。详细步骤包括下载Flume、配置audit_log_hdfs.conf、调整JVM参数以防止OOM和频繁GC,并演示了启动流程。
摘要由CSDN通过智能技术生成
1、背景

HDFS的audit log产生数据量很大,速度也很快,在机器系统盘上必须立即持久化到HDFS,否则数据会被覆盖或者磁盘会打满。
用于数据治理-HDFS废弃文件、Hive废弃表检测与清理

2、实现

Apache Flume官网下载最新版本的Flume。
② 配置audit_log_hdfs.conf

# 一个channel一个source 配置3个sink
a1.sources = r1
a1.sinks = k1 k2 k3
a1.channels = c1

# 数据来源,给c1配置shell命令tail -F 获取hdfs-audit.log
a1.sources.r1.type = exec
a1.sources.r1.command = tail -F /home/hadoop/logs/hdfs/hdfs-audit.log
a1.sources.r1.channels = c1

# 配置sink
a1.sinks.k1.type = hdfs
a1.sinks.k1.channel = c1
## 
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值