flume和kafka对接

问题
flume采集日志用kafka来广播消息

flume的配置

[root@SZB-L0032016 bin]# cat ../conf/flume_kafka.conf 
a.sinks=k1
a.sources=s1 s2
a.channels=r1
#定义source是从文本文件过来
a.sources.s1.type=exec
a.sources.s1.command=tail -F /root/a.log

a.sources.s2.type=exec
a.sources.s2.command=tail -F /root/b.log

#sink 是kafka topic 是test broker 是10.20.25.199:9092
a.sinks.k1.type=org.apache.flume.sink.kafka.KafkaSink
a.sinks.k1.kafka.topic = test
a.sinks.k1.kafka.bootstrap.servers =10.20.25.199:9092
a.sinks.k1.kafka.flumeBatchSize = 20
a.sinks.k1.kafka.producer.acks = 1
a.sinks.k1.kafka.producer.linger.ms = 1
a.sinks.ki.kafka.producer.compression.type = snappy

a.channels.r1.type=file
a.channels.r1.checkpointDir=/root/flume/checkpoint
a.channels.r1.dataDirs=/root/flume/data


a.sources.s2.channels=r1
a.sources.s1.channels=r1
a.sinks.k1.channel=r1

启动flume服务

[root@SZB-L0032016 bin]# ./flume-ng agent --conf conf --conf-file ../conf/flume_kafka.conf --name a -Dflume.root.logger=INFO,console

往flume的source里面增加内容

[root@SZB-L0032016 ~]# echo "test">a.log 
[root@SZB-L0032016 ~]# echo "test11111">a.log 

启动kafka的消费端

[xulu@SZB-L0032015 bin]$ ./kafka-console-consumer.sh --zookeeper 10.20.25.241:3181 --topic test --from-beginning
this is message
this is aaa
clearrsss
this is the kafka info
1111dddddddd
test big data
test
test11111

可以在kafka消费端查看到flume发送过来的消息

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值