实践:Flume同步信息到HDFS

本文介绍了如何使用Flume 1.8在cdh5.8.5环境中将日志信息从/log目录同步到HDFS。实战中遇到权限问题,通过修改用户权限解决,最终实现日志数据成功传输到HDFS,并在NameNode界面验证了数据的完整性。
摘要由CSDN通过智能技术生成

实践:Flume同步信息到HDFS

环境介绍

  本次实战基于cdh5.8.5,flume 1.8。

实战背景

  应用程序通过log4j记录日志信息(用户ip,访问url,请求方式,状态码信息,时间戳),记录到服务器上(地址:/data/flume/log)。通过flume组件将不断更新的日志信息传递给hdfs做离线处理,kafka做实时处理。
  当然我们本次先演示flume-hdfs的过程。

架构图

在这里插入图片描述

配置

flume-agent配置

# 组装agent
a1.channels = ch_1
a1.sources = src_1
a1.sinks = sink_1

# 配置 source:从目录中读取文件
a1.sources.src_1.type = spooldir
a1.sources.src_1.channels = ch_1
a1.sources.src_1.spoolDir = /data/flume/log
a1.sources.src_1.includePattern=^.*$
a1.sources.src_1.ignorePattern=^.*log$
a1.sources.src_1.deletePolicy= never
a1.sources.src_1.
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值