Java动态创建kafka并保持连接长期可用

一、kafka初始化

首先了解下kafka是怎么初始化的,看源码,就可以了解项目启动的时候,它就读取配置文件里面的kafka配置,然后初始化一个KafkaTemplate连接,然后接下来使用kafka推送或监听,就是这一次连接的。读取的主机和端口是在“bootstrap-servers”后面的那一串配置。后面就是一些生产者或者订阅者的一些配置,自己按照想要的连接进行配置就可。这里的重点不在配置文件怎么配置,不明白的朋友可以去查查。

这种方式是最简单且最常用的,但是有些领导就是要追求点刺激,让我们突破常规,要连接两个地址的kafka连接,并且同时可以使用,这时候我们就不能按照常规的配置,就得在代码中自己创建连接了。

二、自己创建kafka连接

既然是两个连接,那么这个连接就是固定的,那我们可以将连接放入配置文件中,然后从配置文件中先获取到连接的主机和端口。在配置文件中就两个String即可,然后在代码中获取。这时候我们写两个config来进行初始化连接,并且让他们别名不一样,这样就可以从随意使用任意一个连接了。

举个例子,其中的一个连接

package com.inphase.mjai.device.config;


import org.apache.kafka.clients.consumer.ConsumerConfig;
import org.apache.kafka.clients.producer.ProducerConfig;
import org.apache.kafka.common.serialization.StringDeserializer;
import org.apache.kafka.common.serialization.StringSerializer;
import org.springframework.beans.factory.annotation.Value;
import org.springframework.context.annotation.Bean;
import org.springframework.context.annotation.Configuration;
import org.springframework.kafka.annotation.EnableKafka;
import org.springframework.kafka.config.ConcurrentKafkaListenerContainerFactory;
import org.springframework.kafka.config.KafkaListenerContainerFactory;
import org.springframework.kafka.core.*;
import org.springframework.kafka.listener.ConcurrentMessageListenerContainer;
import org.springframework.kafka.listener.ContainerProperties;

import java.util.HashMap;
import java.util.Map;

@EnableKafka
@Configuration
public class KafkaOneConfig {

    @Value("${spring.kafka.one.bootstrap-servers}")
    private String bootstrapServers;

    @Bean
    public KafkaTemplate<String, String> kafkaOneTemplate() {
        return new KafkaTemplate<>(producerFactory());
    }

    @Bean
    KafkaListenerContainerFactory<ConcurrentMessageListenerContainer<Integer, String>> kafkaOneContainerFactory() {
        ConcurrentKafkaListenerContainerFactory<Integer, String> factory = new ConcurrentKafkaListenerContainerFactory<>();
        factory.setConsumerFactory(consumerFactory());
        ContainerProperties containerProperties = factory.getContainerProperties();
        containerProperties.setMissingTopicsFatal(false);
        containerProperties.setAckMode(ContainerProperties.AckMode.MANUAL);
        return factory;
    }

    private ProducerFactory<String, String> producerFactory() {
        return new DefaultKafkaProducerFactory<>(producerConfigs());
    }

    public ConsumerFactory<Integer, String> consumerFactory() {
        return new DefaultKafkaConsumerFactory<>(consumerConfigs());
    }

    private Map<String, Object> producerConfigs() {
        Map<String, Object> props = new HashMap<>();
        props.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG, bootstrapServers);
        props.put(ProducerConfig.RETRIES_CONFIG, 0);
        props.put(ProducerConfig.ACKS_CONFIG, "1");
        props.put(ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG, StringSerializer.class);
        props.put(ProducerConfig.VALUE_SERIALIZER_CLASS_CONFIG, StringSerializer.class);
        return props;
    }

    private Map<String, Object> consumerConfigs() {
        Map<String, Object> props = new HashMap<>();
        props.put(ConsumerConfig.BOOTSTRAP_SERVERS_CONFIG, bootstrapServers);
        props.put(ConsumerConfig.ENABLE_AUTO_COMMIT_CONFIG, false);
        props.put(ConsumerConfig.AUTO_OFFSET_RESET_CONFIG, "earliest");
        props.put(ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG, StringDeserializer.class);
        props.put(ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG, StringDeserializer.class);
        return props;
    }
}

根据以上代码,我们就可以初始化一个别名为KafkaOneConfig的kafka连接。就可以直接在代码中注入使用该连接就行。

但这时候领导又说,连接地址已经被写死了,如果给你三个连接你是不是得改代码,这样太不灵活了,搞一个动态的连接,随时更改连接地址那种。

三、动态创建kafka

同自己创建kafka连接一样,这里就是获取连接主机和端口不一样罢了。可以将kafka的连接存入数据库,然后数据来的时候根据要推送的kafka进行连接。这里只举例创建一个生产者

    private KafkaTemplate<String, String> kafkaDynamicTemplate(String ipAndPort) {
        return new KafkaTemplate<>(producerFactory(ipAndPort));
    }

    private ProducerFactory<String, String> producerFactory(String ipAndPort) {
        return new DefaultKafkaProducerFactory<>(producerConfigs(ipAndPort));
    }

    private Map<String, Object> producerConfigs(String ipAndPort) {
        Map<String, Object> props = new HashMap<>();
        props.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG, ipAndPort);
        props.put(ProducerConfig.RETRIES_CONFIG, 0);
        props.put(ProducerConfig.ACKS_CONFIG, "1");
        props.put(ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG, StringSerializer.class);
        props.put(ProducerConfig.VALUE_SERIALIZER_CLASS_CONFIG, StringSerializer.class);
        return props;
    }

到这里就可以随意更改ipAndPort来创建不同的连接了。

但是这时候出现了一个问题,就是每次有数据过来都要重新连接一次吗?怎样将连接保存下来,第二次需要推送的时候继续用呢。

想了许久,我就想到,kafka初始化的时候好像就是注入到了SpringBean容器中,然后要使用的时候就从当中取出即可。那我们就可以将连接创建了过后,放入容器中,并且给它一个独特的别名,就可以节约资源不用每次都创建连接了。

先导入一个hutool包

        <dependency>
            <groupId>cn.hutool</groupId>
            <artifactId>hutool-all</artifactId>
            <version>5.6.2</version>
            <scope>compile</scope>
        </dependency>

然后使用其中的SpringUtil

设定别名为ipAndPort的bean,bean类为创建的连接,kafkaDynamicTemplate方法就是上面创建连接的方法。

springUtil.registerBean(ipAndPort,this.kafkaDynamicTemplate(ipAndPort));

这时候就在容器中有了一个kafka连接对象,只要项目没有重新启动,这个连接都是可以使用的。

但是怎么使用呢?

就从容器中通过别名获取即可

kafkaTemplate = springUtil.getBean(ipAndPort,KafkaTemplate.class);

这时候就可以正常使用kafkaTemplate进行数据推送了。

没什么难点,但让我第一次手动操作了SpringBean容器,也是种成长。

有什么还可以优化的地方还望各位大佬指点。

  • 2
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
可以使用 KafkaJava API 来动态获取 topic 并动态创建消费者。以下是一个示例代码: ```java import org.apache.kafka.clients.consumer.Consumer; import org.apache.kafka.clients.consumer.ConsumerConfig; import org.apache.kafka.clients.consumer.ConsumerRecord; import org.apache.kafka.clients.consumer.ConsumerRecords; import org.apache.kafka.clients.consumer.KafkaConsumer; import org.apache.kafka.common.serialization.StringDeserializer; import java.time.Duration; import java.util.Collections; import java.util.Properties; public class DynamicConsumer { public static void main(String[] args) { // Kafka broker 地址 String bootstrapServers = "localhost:9092"; // 消费者组 ID String groupId = "test-group"; // 消费者配置 Properties properties = new Properties(); properties.setProperty(ConsumerConfig.BOOTSTRAP_SERVERS_CONFIG, bootstrapServers); properties.setProperty(ConsumerConfig.GROUP_ID_CONFIG, groupId); properties.setProperty(ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG, StringDeserializer.class.getName()); properties.setProperty(ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG, StringDeserializer.class.getName()); // Kafka 消费者 Consumer<String, String> consumer = new KafkaConsumer<>(properties); // 动态获取的 topic 名称 String topic = "test-topic"; // 创建消费者订阅的 topic consumer.subscribe(Collections.singletonList(topic)); // 消费消息 while (true) { ConsumerRecords<String, String> records = consumer.poll(Duration.ofMillis(100)); for (ConsumerRecord<String, String> record : records) { System.out.printf("offset = %d, key = %s, value = %s%n", record.offset(), record.key(), record.value()); } } } } ``` 在上面的代码中,我们首先创建一个 Kafka 消费者并设置必要的配置项。然后,我们动态获取要消费的 topic 名称,并将其订阅给消费者。最后,我们使用 `poll` 方法从 Kafka 中获取消息并进行消费。在上述示例中,我们使用了一个无限循环来持续消费消息。你可以根据自己的需求更改代码来增加其他功能,例如将消费者动态创建为多线程消费者等。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值