从无到有系列之flume-收集日志到hdfs02

1.向agent发送数据,并将数据输出至hdfs中
$FLUME_HOME/conf目录下修改flume-conf.properties.template文件复制并改名为flumetest2    
a1.sources= r1
a1.sinks= k1
a1.channels= c1
a1.sources.r1.type= exec
a1.sources.r1.channels= c1
a1.sources.r1.command= tail -F /home/hadoop/hadoop-2.6.0/logs/hadoop-hadoop-namenode-hadoop0.log
a1.sinks.k1.type= hdfs
a1.sinks.k1.channel= c1
a1.sinks.k1.hdfs.path= hdfs://hadoop0:9000/outputs
a1.sinks.k1.hdfs.filePrefix= events-
a1.sinks.k1.hdfs.round= true
a1.sinks.k1.hdfs.roundValue= 10
a1.sinks.k1.hdfs.roundUnit= minute
a1.sinks.k1.hdfs.rollSize= 4000000
a1.sinks.k1.hdfs.rollCount= 0
a1.sinks.k1.hdfs.writeFormat= Text
a1.sinks.k1.hdfs.fileType= DataStream
a1.sinks.k1.hdfs.batchSize= 10
a1.channels.c1.type= memory
a1.channels.c1.capacity= 1000
a1.channels.c1.transactionCapacity= 100
2.在flume的安装目录/flume-1.5.0-bin下运行

./bin/flume-ng agent --conf./conf/ --conf-file ./conf/flumetest2 --name a1-Dflume.root.logger=INFO,console

不断收集hadoop-user-namenode-user1.log的数据写入HDFS
查看hdfs中/outputs中的文件
 
  • hadoop fs -ls /outputs
  • hadoop fs -cat     /outputs/events-.1436691811727
cat /home/hadoop/hadoop-2.6.0/logs/hadoop-hadoop-namenode-hadoop0.log
hadoop fs -ls /outputs
3.可以看出,随着时间的推移,/home/hadoop/hadoop-2.6.0/logs/hadoop-hadoop-namenode-hadoop0.log日志内容不断更新,hadoop fs -ls /outputs目录也随之不断更新。flume日志采集正常工作。



本文参考转载至:http://f.dataguru.cn/thread-523804-1-1.html
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值