Flume案例:多个channle/sink

本文介绍了一个Flume使用案例,监控hive.log文件并创建两个不同的channel。一个channel将日志数据发送到HDFS,另一个channel则将日志存储到本地。通过配置flumejob_1.conf, flumejob_2.conf和flumejob_3.conf文件,实现了日志同时在HDFS和本地的存储。本地文件夹需预先创建,并且配置文件flumejob_3.conf中设置为每30秒生成一个新文件,该参数可根据具体需求调整。" 133113592,19974110,使用ARM处理器实现嵌入式网络收音机,"['arm开发', '嵌入式']
摘要由CSDN通过智能技术生成

多个channel/sink

需求:监控hive.log文件,用同时产生两个channel,一个channel对应的sink存储到hdfs中,
另外一个channel对应的sink存储到本地。

配置:

1)flumejob_1.conf

# name the components on this agent 
a1.sources = r1
a1.sinks = k1 k2 
a1.channels = c1 c2
# 将数据流复制给多个 channel
a1.sources.r1.selector.type = replicating

# Describe/configure the source 
a1.sources.r1.type = exec
a1.sources.r1.command = tail -F /tmp/root/hive.log
a1.sources.r1.shell = /bin/bash -c


# Describe the sink
# 分两个端口发送数据 
a1.sinks.k1.type = avro 
a1.sinks.k1.hostname = master
a1.sinks.k1.port = 4141

a1.sinks.k2.type = avro 
a1.sinks.k2.hostname = master 
a1.sinks.k2.port = 4142

# Describe the channel 
a1.channels.c1.type = memory 
a1.channels.c1.capacity = 1000
a1.channels.c1.transactionCapacity = 100

a1.channels.c2.type = memory 
a1.channels.c2.capacity = 1000
a1.c
  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值