Flume和kafka的结合实战

6 篇文章 0 订阅

1.修改flume的配置文档exec-memory-kafka.conf ,使用kafka sink

# Name the components on this agent
a1.sources = r1  #a1代表agent名称,r1:数据源的名称
a1.sinks = k1    #k1 sink名称

a1.channels = c1  #c1 channel名称

# Describe/configure the source 不同的source配置信息请查看官网
a1.sources.r1.type = exec #设置a1中,r1这个source的类型,一个agent可能有多个source
a1.sources.r1.command = tail -F /home/hadoop/data/data.log  #指定linux命令
a1.sources.r1.shell = /bin/sh -c 

# Describe the sink
a1.sinks.k1.type = org.apache.flume.sink.kafka.KafkaSink
al.sinks.k1.brokerlist=10.96.183.35:9092
al.sinks.k1.topic=hello_topic
al.sinks.k1.batchSize=5

al.sinks.k1.requiredAcks=1

# Use a channel which buffers events in memory
a1.channels.c1.type = memory
a1.channels.c1.capacity = 1000
a1.channels.c1.transactionCapacity = 100

# Bind the source and sink to the channel
a1.sources.r1.channels = c1

a1.sinks.k1.channel = c1

2.启动flume

flume-ng agent --name a1 --conf $FLUME_HOME/conf --conf-file $FLUME_HOME/conf/exec-memory-kafka.conf \

-Dflume.root.logger=INFO,console

3.启动kafka的一个consumer进行消费

kafka-console-consumer.sh --zookeeper:localhost:2181 --topic hello_topic

4.数据测试

在data.log中添加新数据,测试kafka是有对数据进行消费。

注意:al.sinks.k1.batchSize参数用来设置数据到达多条才发送给kafka进行消费。




  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值