Flume采集配置案例一:采集目录中的新文件到HDFS中

1 案例需求

使用flume监听整个目录的文件,实时地将/opt/module/flume-1.7.0/logs目录中的文件采集到HDFS中去

2 需求分析

           

3 实现步骤

3.1 创建并配置文件dir-hdfs.conf

配置文件属性配置参考官方文档:http://flume.apache.org/FlumeUserGuide.html

[caimh@master-node flume-1.7.0]$ mkdir job
[caimh@master-node flume-1.7.0]$ cd job/
[caimh@master-node job]$ vim dir-hdfs.conf
#定义三大组件的名称
ag1.sources = source1
ag1.sinks = sink1
ag1.channels = channel1

# 配置source组件
ag1.sources.source1.type = spooldir
ag1.sources.source1.spoolDir = /opt/module/flume-1.7.0/logs
##定义文件上传完后的后缀,默认是.COMPLETED
ag1.sources.source1.fileSuffix=.FINISHED
##默认是2048,如果文件行数据量超过2048字节(1k),会被截断,导致数据丢失
ag1.sources.source1.deserializer.maxLineLength=5120

# 配置sink组件
ag1.sinks.sink1.type = hdfs
ag1.sinks.sink1.hdfs.path =hdfs://master-node:9000/access_log/%y-%m-%d/%H-%M
#上传文件的前缀
ag1.sinks.sink1.hdfs.filePrefix = app_log
#上传文件的后缀
ag1.sinks.sink1.hdfs.fileSuffix = .log
#积攒多少个Event才flush到HDFS一次
ag1.sinks.sink1.hdfs.batchSize= 100
ag1.sinks.sink1.hdfs.fileType = DataStream
ag1.sinks.sink1.hdfs.writeFormat =Text

## roll:滚动切换:控制写文件的切换规则
## 按文件体积(字节)来切
ag1.sinks.sink1.hdfs.rollSize = 512000
## 按event条数切   
ag1.sinks.sink1.hdfs.rollCount = 1000000
## 按时间间隔切换文件,多久生成一个新的文件
ag1.sinks.sink1.hdfs.rollInterval = 60

## 控制生成目录的规则
ag1.sinks.sink1.hdfs.round = true
##多少时间单位创建一个新的文件夹
ag1.sinks.sink1.hdfs.roundValue = 10
ag1.sinks.sink1.hdfs.roundUnit = minute

#是否使用本地时间戳
ag1.sinks.sink1.hdfs.useLocalTimeStamp = true

# channel组件配置
ag1.channels.channel1.type = memory
## event条数
ag1.channels.channel1.capacity = 500000
##flume事务控制所需要的缓存容量600条event
ag1.channels.channel1.transactionCapacity = 600

# 绑定source、channel和sink之间的连接
ag1.sources.source1.channels = channel1
ag1.sinks.sink1.channel = channel1

3.2 启动监控文件夹命令

(1)测试阶段,启动flume agent的命令如下

[caimh@master-node flume-1.7.0]$ bin/flume-ng agent -c conf/ -n ag1 -f job/dir-hdfs.conf -Dflume.root.logger=info,console

-D后面跟的是log4j的参数,用于测试观察(输出到控制台)

(2)生产中,启动flume agent,应该把flume启动在后台

[caimh@master-node flume-1.7.0]$ nohup bin/flume-ng agent -c conf/ -n ag1 -f job/dir-hdfs.conf 1>/dev/null 2>&1 &

说明: 在使用Spooling Directory Source时

      a.不要在监控目录中创建并持续修改文件

      b.上传完成的文件会以.FINISHED(默认.COMPLETED)结尾

      c.被监控文件夹每600毫秒扫描一次文件变动

3.3 向之前创建/opt/module/flume-1.7.0/logs文件夹中添加文件

[caimh@master-node logs]$ echo hello world >>a.txt
[caimh@master-node flume-1.7.0]$ ll logs/
总用量 4
-rw-rw-r--. 1 caimh caimh 12 10月  9 09:29 a.txt.FINISHED

3.4 查看HDFS上的数据

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值