配置flume+hadoop hdfs

首先解压flume,然后执行授权命令:sudo chmod 777 -R flume

一.普通配置

vim conf/netcat-logger.conf 

 

插入以下内容:

 

#三个组件名称

a1.sources = r1

a1.sinks = k1

a1.channels = c1

 

#类型

a1.sources.r1.type = netcat

a1.sources.r1.bind = localhost

a1.sources.r1.port = 8088

 

#定义数据下沉类型

a1.sinks.k1.type = loggger

 

#定义数据传输的方式

a1.channels.c1.type = memory

a1.channels.c1.capacity = 1000

a1.channels.c1.transactionCapacity = 100

 

#指定数据传输的通道

a1.sources.r1.channels = c1

a1.sinks.k1.channels = c1

                                                                               

启动命令:

bin/flume-ng agent --conf conf --conf-file conf/netcat-logger.conf --name a1 -Dflume.root.logger-INFO.console

 

二. Flume + Hadoop HDFS实时采集日志

执行命令:vim tail-hdfs.conf

配置文件:

#指定事件参数

a1.channels.c1.type = memory

a1.channels.c1.capacity = 1000

a1.channels.c1.transactioncapacity = 100

 

#指定使用的通道

a1.sources.r1.channels = c1

a1.sinks.k1.channels = c1

bogon:conf legend$ vim tail-hdfs.conf 

bogon:conf legend$ vim tail-hdfs.conf 

 

#文件滚动的大小限制

a1.sinks.k1.hdfs.rollsize = 20

 

#指定多少个事件滚动一次

a1.sinks.k1.hdfs.rollcount = 5

 

#缓存多少内存写入一个事件

a1.sinks.k1.hdfs.batchSize = 1

 

#根据本地的时间

a1.sinks.k1.hdfs.useLocalTimeStamp = true

 

#生成文件的类型指定

a1.sinks.k1.hdfs.fileType = DataStream

 

#指定事件参数

a1.channels.c1.type = memory

a1.channels.c1.capacity = 1000

a1.channels.c1.transactioncapacity = 100

 

#指定使用的通道

a1.sources.r1.channels = c1

a1.sinks.k1.channels = c1

 

执行启动命令:

bin/flume-ng agent -c conf -f conf/tail-hdfs.conf -n a1

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值