storm+kafka实现多topic消费

前言

在使用storm框架消费kafka数据时,之前一直是使用storm-kafka.jar中的KafkaSpout实现的,其局限性在于一次只能传入一个topic(public SpoutConfig(BrokerHosts hosts,String topic,String zkRoot,String id)。当消费多个topic时,需要实例化多个KafkaSpout。那么是否有其他方法可以一次性传入多个topic?下面给出了两种解决思路。

思路

(1)使用storm-kafka-client.jar实现

(2)自己实现spout,spout中集成kafka的消费者实现,从而完成多个kafka的消费

实现

(1)思路一的实现可以参考源码包中apache-storm-版本-src——external——storm-kafka-client——src——test部分。

pom.xml(引入适合版本的storm-core和storm-kafka-client)

<dependency>
    <groupId>org.apache.storm</groupId>
    <artifactId>storm-core</artifactId>
    <version>1.0.2</version>
</dependency>
<dependency>
    <groupId>org.apache.storm</groupId>
    <artifactId>storm-kafka-client</artifactId>
    <version>1.0.2</version>
    <type>jar</type>
</dependency>

Topology1.java  

import org.apache.storm.Config;
import org.apache.storm.LocalCluster;
import org.apache.storm.generated.StormTopology;
import org.apache.storm.kafka.spout.KafkaSpout;
import org.apache.storm.kafka.spout.KafkaSpoutConfig;
import org.apache.storm.topology.TopologyBuilder;

import java.util.HashMap;
import java.util.Map;

/*
调用storm-kafka-client.jar实现spout的多topic消费
 */
public class Topology1 {
    public static void main(String[] args) {
        Topology1 topology1 = new Topology1();
        StormTopology stormTopology = topology1.buildTopology();

        Config config = new Config();
        try {
            LocalCluster cluster = new LocalCluster();
            cluster.submitTopology("topoName", config, stormTopology);
        } catch (Exception e) {
            e.printStackTrace();
        }
    }

    //构建拓扑
    public StormTopology buildTopology() {
        TopologyBuilder builder = new TopologyBuilder();

        Map<String, Object> props = new HashMap<String, Object>();
        props.put(KafkaSpoutConfig.Consumer.ENABLE_AUTO_COMMIT, "true");
        props.put(KafkaSpoutConfig.Consumer.BOOTSTRAP_SERVERS, "localhost:9092");
        props.put(KafkaSpoutConfig.Consumer.GROUP_ID, "group_1");
        props.put(KafkaSpoutConfig.Consumer.KEY_DESERIALIZER, "org.apache.kafka.common.serialization.StringDeserializer");
        props.put(KafkaSpoutConfig.Consumer.VALUE_DESERIALIZER, "
  • 0
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 3
    评论
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值