ambari下的flume和kafka整合

1、配置flume

 1 #扫描指定文件配置
 2 agent.sources = s1    
 3 agent.channels = c1  
 4 agent.sinks = k1
 5 
 6 agent.sources.s1.type=exec
 7 agent.sources.s1.command=tail -F /home/flume/test/test.log
 8 agent.sources.s1.channels=c1
 9 agent.channels.c1.type=memory
10 agent.channels.c1.capacity=10000
11 agent.channels.c1.transactionCapacity=100
12 
13 #设置Kafka接收器
14 agent.sinks.k1.type= org.apache.flume.sink.kafka.KafkaSink
15 #设置Kafka的broker地址和端口号
16 agent.sinks.k1.brokerList=172.16.38.159:6667
17 #设置Kafka的Topic
18 agent.sinks.k1.topic=test
19 #设置序列化方式
20 agent.sinks.k1.serializer.class=kafka.serializer.StringEncoder
21 
22 agent.sinks.k1.channel=c1

二、配置kafka

  1、创建一个topic

#创建一个test的topic
bin/kafka-topics.sh --zookeeper 172.16.38.159:2181 --create --topic test --replication-factor 1 --partitions 1

  2、使用kafka的监控来查看

java -cp KafkaOffsetMonitor-assembly-0.2.0.jar \
 com.quantifind.kafka.offsetapp.OffsetGetterWeb \
 --zk 172.16.38.159:2181 \
 --port 8089 \
 --refresh 10.seconds \
 --retain 1.days

   3、使用customer来查看收到的数据

./kafka-console-consumer.sh -zookeeper 172.16.38.159:2181 --from-beginning --topic test

 

个人博客地址:http://julyme.com

博文地址:http://julyme.com/c/ambari下的flume和kafka整合

转载于:https://www.cnblogs.com/julyme/p/5660595.html

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值