Flume之二

需求1:采集本地一个文件夹下文件到hdfs上定义agent如下:a1.sources=r1a1.sinks=k1a1.channels=c1a1.sources.r1.type=spooldira1.sources.r1.spooldir=/home/hadoop/data/spool_dataa1.channels.c1.type=memorya1.channels.c1.capacity=10...
摘要由CSDN通过智能技术生成

需求1:采集本地一个文件夹下文件到hdfs上

定义agent如下:

a1.sources=r1
a1.sinks=k1
a1.channels=c1

a1.sources.r1.type=spooldir
a1.sources.r1.spooldir=/home/hadoop/data/spool_data

a1.channels.c1.type=memory
a1.channels.c1.capacity=10000                                //保存在channel中的最大event数
a1.channels.c1.tarasactionCapacity=10000              //每次最多从sources抽取并送到sinks端的event数

a1.sinks.k1.type=hdfs
a1.sinks.k1.hdfs.path=hdfs://hadoop000:8020/data/flume/spool
a1.sinks.k1.hdfs.batchSize=10                    //刷新到hdfs上的event数量,默认值100
a1.sinks.k1.hdfs.fileType=DataStream     //可以是SenquenceFile,DataStream,CompressedStream。默认值为SenquenceFile
a1.sinks.k1.hdfs.writeFormat=Text         
a1.sinks.k1.hdfs.rollInterval=0                              //每隔多长时间,临时文件滚动成目标文件

a1.sinks.k1.hdfs.rollSize=10485760                      //当临时文件达到该大小时,滚动成目标文件
a1.sinks.k1.hdfs.rollCount=10000                          // 当events数据达到该数量时候,将临时文件滚动成目标文件


a1.sinks.k1.channel=c1

a1.sources.r1.channels=c1

保存为spool.conf文件,然后执行以下命令启动flume:

./flume-ng agent \
--name a1 \
--conf $FLUME_HOME/conf \
--conf-file $FLUME_HOME/conf/spool.conf \

-Dflume.root.logger=INFO,console

此时本地目录/home/hadoop/data/spool_data下如果有新的文件产生,则文件内容会被采集到hdfs的相应目录下

----------------------------------------------------------------------------------------------------------

需求2:按分钟收集本地目录下非.txt后缀的文件数据到hdfs上,以文件名格

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

二百四十九先森

你的打赏是我努力的最大动力~

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值