Kafka 发布订阅实现

    依赖包:

<dependency>
    <groupId>org.apache.kafka</groupId>

    <artifactId>kafka_2.10</artifactId>
    <version>0.9.0.0</version>
</dependency>

    貌似新版本0.9修改Consumer相关的api,和0.9以前的实现方式不同,统一了consumer API的实现,详情可见http://kafka.apache.org/documentation.html#consumerapi

    生产者的实现:

public class SimpleProducer {

    public void send() {
        Properties props = new Properties();
        props.put("bootstrap.servers", "192.168.52.128:9092");
        //每次请求成功提交,保证消息发送成功
        props.put("acks", "all");
        //重试次数
        props.put("retries", 1);
        props.put("batch.size", 16384);
        props.put("linger.ms", 1);
        props.put("key.serializer", "org.apache.kafka.common.serialization.StringSerializer");
        props.put("value.serializer", "org.apache.kafka.common.serialization.StringSerializer");

        //消息发送到某个分区上,默认org.apache.kafka.clients.producer.internals.DefaultPartitioner
//        props.put("partitioner.class", "com.test.kafka.simple.SimplePartitioner");

        Producer<String, String> producer = new KafkaProducer(props);
        for(int i = 0; i < 100; i++) {
            producer.send(new ProducerRecord<String, String>("mykafka", "mykafka" + Integer.toString(i), "hello kafka " + Integer.toString(i)));

        }
        producer.close();
    }

    public static void main(String[] args) {
        new SimpleProducer().send();
    }

}

    消费者实现:

public class SimpleConsumer {

    private static final Logger logger = LoggerFactory.getLogger(SimpleConsumer.class);

    public void poll() {
        KafkaConsumer<String, String> consumer = null;
        try {
            Properties props = new Properties();
            props.put("bootstrap.servers", "192.168.52.128:9092");
            //设置定期提交offset,也可以手动调用KafkaConsumer.commitSync()方法提交
            props.put("enable.auto.commit", true);
            props.put("auto.commit.interval.ms", "5000");
            //心跳检测,检测session连接,间隔时间应该小于session-time-out,建议配置不大于1/3 session-time-out
            props.put("heartbeat.interval.ms", "5000");
            props.put("session.timeout.ms", "30000");
            props.put("group.id", "test-consumer-group");
            props.put("key.deserializer", "org.apache.kafka.common.serialization.StringDeserializer");
            props.put("value.deserializer", "org.apache.kafka.common.serialization.StringDeserializer");
            consumer = new KafkaConsumer<String, String>(props);

            Map<String, List<PartitionInfo>> topics = consumer.listTopics();
            consumer.subscribe(Arrays.asList("mykafka"));
            while (true) {
                ConsumerRecords<String, String> records = consumer.poll(1000);
                for (ConsumerRecord<String, String> record : records) {

                    System.out.printf("offset = %d, key = %s, value = %s", record.offset(), record.key(), record.value());
                    System.out.println();
                }

            }
        } finally {
            consumer.close();
        }
    }

    public static void main(String[] args) {
        new SimpleConsumer().poll();
    }

}

    其中可以自定义自己的序列化的实现以及消息发送到partitioner的方式:

public class SimplePartitioner implements Partitioner {

    public SimplePartitioner (VerifiableProperties props) {

    }

    @Override
    public int partition(Object o, int i) {
        int partition = 0;
        String stringKey = (String) o;
        int offset = stringKey.lastIndexOf('.');
        if (offset > 0) {
            partition = Integer.parseInt( stringKey.substring(offset+1)) % i;
        }
        return partition;
    }
}

 

    以上是基于官方demo的例子实现的;spring也提供了spring-integration-kafka对Kafka的集成,详情可参见https://github.com/spring-projects/spring-integration-kafka

 

转载于:https://my.oschina.net/u/1263326/blog/607970

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
你可以使用 Qt 和 Kafka实现发布-订阅模式。下面是一个基本的示例代码: 首先,你需要在 Qt 项目中添加 KafkaC++ 客户端库。可以使用 RdKafka(https://github.com/edenhill/librdkafka)或者其他类似的库。 在你的代码中,你需要包括 Kafka 相关的头文件和命名空间: ```cpp #include <librdkafka/rdkafkacpp.h> using namespace RdKafka; ``` 然后,你可以创建一个 Kafka 生产者和消费者来实现发布-订阅模式。下面是一个简单的示例: ```cpp // Kafka 生产者 void produceMessage(const std::string& topic, const std::string& message) { std::string brokers = "localhost:9092"; // Kafka 服务器地址 Configuration* conf = Configuration::create(); conf->set("bootstrap.servers", brokers, errstr); Producer* producer = Producer::create(conf, errstr); // 创建消息并发送 std::string errstr; producer->produce(topic, RdKafka::Topic::PARTITION_UA, RdKafka::Producer::RK_MSG_COPY, const_cast<char*>(message.c_str()), message.size(), NULL, NULL); producer->poll(0); // 等待消息发送完成 delete producer; delete conf; } // Kafka 消费者 class ConsumerCallback : public RdKafka::ConsumeCb { public: void consume_cb(RdKafka::Message& msg, void* opaque) override { if (msg.err() == RdKafka::ERR_NO_ERROR) { // 处理收到的消息 std::string message(static_cast<const char*>(msg.payload()), msg.len()); qDebug() << "Received message: " << message.c_str(); } } }; void consumeMessages(const std::string& topic) { std::string brokers = "localhost:9092"; // Kafka 服务器地址 Configuration* conf = Configuration::create(); conf->set("bootstrap.servers", brokers, errstr); Consumer* consumer = Consumer::create(conf, errstr); consumer->subscribe({topic}); ConsumerCallback callback; while (true) { Message* msg = consumer->consume(1000); // 等待消息 callback.consume_cb(*msg, nullptr); delete msg; } delete consumer; delete conf; } ``` 这是一个简单的示例来实现 Kafka 的发布-订阅模式。你可以根据你的需求进行修改和扩展。注意添加错误处理和其他必要的设置来确保你的应用程序的稳定性和可靠性。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值