springboot集成kafka的相关配置及自定义

之前的文章末尾,简单的实现了springboot集成kafka,完成了简单的测试,今天我们来扩展一下相关内容。

首先详解一下配置文件的内容:

spring:
  kafka:
    # 指定 kafka 地址,我这里部署在的虚拟机,开发环境是Windows,kafkahost是虚拟机的地址, 若外网地址,注意修改为外网的IP( 集群部署需用逗号分隔)
    producer:
      bootstrap-servers: 124.223.205.125:9092
      # 发生错误后,消息重发的次数。
      retries: 3
      #当有多个消息需要被发送到同一个分区时,生产者会把它们放在同一个批次里。该参数指定了一个批次可以使用的内存大小,按照字节数计算。
      batch-size: 16384
      # 设置生产者内存缓冲区的大小。
      buffer-memory: 33554432
      # 指定消息key和消息体的序列化方式
      key-deserializer: org.apache.kafka.common.serialization.StringSerializer
      value-deserializer: org.apache.kafka.common.serialization.StringSerializer
      acks: all
      properties:
        # 自定义生产者拦截器
        interceptor.classes: com.volga.kafka.interceptor.ProducerPrefixInterceptor
    consumer:
      enable-auto-commit: false #手动提交
      bootstrap-servers: ${spring.kafka.producer.bootstrap-servers}
      # 指定 group_id
      group-id: group_id
      # Kafka中没有初始偏移或如果当前偏移在服务器上不再存在时,默认区最新 ,有三个选项 【latest, earliest, none】
      auto-offset-reset: earliest
      # 指定消息key和消息体的序列化方式
      key-deserializer: org.apache.kafka.common.serialization.StringDeserializer
      value-deserializer: org.apache.kafka.common.serialization.StringDeserializer
      properties:
        # 自定义消费者拦截器
        interceptor.classes: com.volga.kafka.interceptor.ConsumerPrefixInterceptor
    # 默认主题
    topic: my-topic
    listener:
      # 在侦听器容器中运行的线程数。
      concurrency: 5
      #listner负责ack,每调用一次,就立即commit
      ack-mode: manual_immediate
      missing-topics-fatal: false
      type: batch

以上的producer和consumer的相关配置也可以在java文件中实现:

如上图的实现,自己可以手动实现一下。

kafka内部自己实现分区、策略等一系列的逻辑,当然这些也可以自定义,这里有需要的可以自己研究一下,我这里就不需要了。

接下来,我介绍一个场景,是大家在实际的项目中可以用到。有这样一个场景,在项目中,我们搭建了kafka集群,然而在环境中,会有各种不同的消息,有一些消息不是我们需要的,有些消息是我们需要的,这时我们可以通过过滤器来进行控制和过滤。

在生产者端,我添加一个过滤器在消息前统一加上一个前缀。

 

@Slf4j
public class ProducerPrefixInterceptor implements ProducerInterceptor<String,String> {

    AtomicInteger success = new AtomicInteger(0);
    AtomicInteger fail = new AtomicInteger(0);

    @Override
    public ProducerRecord<String, String> onSend(ProducerRecord<String, String> producerRecord) {
        // 消息统一添加前缀
        String modifyValue = "prefix-"+producerRecord.value();
        return new ProducerRecord<>(producerRecord.topic(), producerRecord.partition(), producerRecord.timestamp(), producerRecord.key(), modifyValue, producerRecord.headers());
    }

    @Override
    public void onAcknowledgement(RecordMetadata recordMetadata, Exception e) {
        if (Objects.nonNull(recordMetadata)){
            success.incrementAndGet();
        }else {
            fail.incrementAndGet();
        }
    }

    @Override
    public void close() {
        log.info("success:%d\nfail:%d\n",success.get(),fail.get());
        success.set(0);
        fail.set(0);
    }

    @Override
    public void configure(Map<String, ?> map) {

    }
}

然后在消费者消费时,我遇到prefix前缀的消息时,就统一过滤掉,这不是我所需要的消息。

@Slf4j
public class ConsumerPrefixInterceptor implements ConsumerInterceptor<String,String> {

    /**
     * 过滤掉test开头的数据
     * @param consumerRecords
     * @return
     */
    @Override
    public ConsumerRecords<String, String> onConsume(ConsumerRecords<String, String> consumerRecords) {
        List<ConsumerRecord<String, String>> filterRecords = new ArrayList<>();
        Map<TopicPartition, List<ConsumerRecord<String, String>>> newRecords= new HashMap<>();
        Set<TopicPartition> partitions = consumerRecords.partitions();
        for(TopicPartition tp : partitions){
            List<ConsumerRecord<String, String>> records = consumerRecords.records(tp);
            for(ConsumerRecord<String, String> record: records){
                if(!record.value().startsWith("prefix")) {
                    filterRecords.add(record);
                }
            }
            if(filterRecords.size() > 0){
                newRecords.put(tp, filterRecords);
            }
        }
        return new ConsumerRecords<>(newRecords);
    }

    @Override
    public void onCommit(Map<TopicPartition, OffsetAndMetadata> map) {
        map.forEach((k,v) -> log.info("tp:%s--offset:%s\n",k,v));
    }

    @Override
    public void close() {

    }

    @Override
    public void configure(Map<String, ?> map) {

    }
}

相关的配置在上述的配置文件中也已经列出了,也可以在代码中加以配置。

props.put("properties.interceptor.classes","com.volga.kafka.interceptor.ProducerPrefixInterceptor");

这样就能实现过滤不需要的消息了。

翻看源码中,生产端主要是KafkaProducer<k,v>这个类中KafkaProducer方法:

消费端这边是对应的:KafkaConsumer<k,v>,这个类中KafkaConsumer方法:

源码里kafka实现的配置逻辑大家可以仔细研究一下。

我是空谷有来人,谢谢支持! 

 

  • 0
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
### 回答1: Spring Boot集成Kafka配置步骤如下: 1. 添加Kafka依赖 在pom.xml文件中添加Kafka依赖: ``` <dependency> <groupId>org.springframework.kafka</groupId> <artifactId>spring-kafka</artifactId> <version>2.5.5.RELEASE</version> </dependency> ``` 2. 配置Kafka连接信息 在application.properties文件中配置Kafka连接信息: ``` spring.kafka.bootstrap-servers=localhost:9092 spring.kafka.consumer.group-id=my-group spring.kafka.consumer.auto-offset-reset=earliest ``` 3. 创建Kafka生产者 使用Spring BootKafkaTemplate类创建Kafka生产者: ``` @Autowired private KafkaTemplate<String, String> kafkaTemplate; public void sendMessage(String topic, String message) { kafkaTemplate.send(topic, message); } ``` 4. 创建Kafka消费者 使用@KafkaListener注解创建Kafka消费者: ``` @KafkaListener(topics = "my-topic", groupId = "my-group") public void listen(String message) { System.out.println("Received message: " + message); } ``` 以上就是Spring Boot集成Kafka配置步骤。 ### 回答2: Spring Boot是一个现代化的Java Web开发框架,简化了传统的Java Web开发流程,而Kafka则是一个分布式消息系统,可用于快速而可靠地处理大量数据和消息。 Spring Boot集成Kafka主要需要进行以下步骤: 1. 配置Maven依赖 在pom.xml文件中添加依赖: ``` <dependency> <groupId>org.springframework.kafka</groupId> <artifactId>spring-kafka</artifactId> <version>2.3.3.RELEASE</version> </dependency> ``` 2. 配置Kafka参数 在application.yml文件中添加Kafka配置参数,例如: ``` spring: kafka: bootstrap-servers: localhost:9092 consumer: group-id: group1 auto-offset-reset: earliest key-deserializer: org.apache.kafka.common.serialization.StringDeserializer value-deserializer: org.apache.kafka.common.serialization.StringDeserializer producer: retries: 0 batch-size: 16384 linger-ms: 1 buffer-memory: 33554432 key-serializer: org.apache.kafka.common.serialization.StringSerializer value-serializer: org.apache.kafka.common.serialization.StringSerializer ``` 其中,`bootstrap-servers`是Kafka服务器的地址,`group-id`是消费者组的ID,`auto-offset-reset`是消费者启动时的偏移量,`key-deserializer`和`value-deserializer`是反序列化器,`retries`是生产者重试次数,`batch-size`是每个批次消息的大小,`linger-ms`是等待消息传递时间,`buffer-memory`是缓存大小,`key-serializer`和`value-serializer`是序列化器。 3. 创建生产者和消费者 通过`@EnableKafka`注解开启Kafka支持,在需要使用Kafka的地方添加`@KafkaListener`注解标记监听器,例如: ``` @Service @EnableKafka public class KafkaConsumer { @KafkaListener(topics = "test") public void receive(ConsumerRecord<?, ?> consumerRecord) { System.out.println("消费消息:" + consumerRecord.value()); } } ``` 通过`KafkaTemplate`类创建生产者,例如: ``` @Service @EnableKafka public class KafkaProducer { @Autowired private KafkaTemplate<String, String> kafkaTemplate; public void sendMessage(String topic, String message) { kafkaTemplate.send(topic, message); System.out.println("生产者发送消息:" + message); } } ``` 其中,`topic`是消息主题,`message`是消息内容。 通过以上步骤,就可以完成Spring Boot集成Kafka配置和使用。 ### 回答3: Spring Boot 是一种流行的 Java Web 开发框架,而 Kafka 是一种流行的分布式消息队列系统。结合 Spring BootKafka 可以构建高效可靠的消息处理系统。 实现 Spring Boot 集成 Kafka 需要进行以下步骤: 1. 引入 Kafka 相关依赖 在 Spring Boot 项目的 pom.xml 中引入 Kafka 相关依赖,包括 spring-kafkakafka-clients。 2. 配置 Kafka 生产者和消费者 在 Spring Boot 项目的 application.yml 或 application.properties 文件中进行 Kafka 生产者和消费者的配置。具体配置包括 Kafka 服务器地址、端口号、topic 名称等。 3. 实现 Kafka 消费者 通过注解,实现 Kafka 消费者。使用 @KafkaListener 注解来标记一个方法,该方法可以处理消费者接收到的消息。例如: ```java @KafkaListener(topics = "${kafka.topic.name}", groupId = "${kafka.group.id}") public void listen(ConsumerRecord<String, String> record) { log.info("Received message: {}", record.value()); } ``` 其中,${kafka.topic.name} 和 ${kafka.group.id} 分别是配置文件中的 Kafka topic 名称和消费者组 ID。 4. 实现 Kafka 生产者 通过注入 KafkaTemplate,实现 Kafka 生产者。例如: ```java @Autowired private KafkaTemplate<String, String> kafkaTemplate; public void sendMessage(String message) { kafkaTemplate.send(topicName, message); } ``` 其中,topicName 是配置文件中配置Kafka topic 名称。 5. 启动应用程序 通过 Spring Boot 启动应用程序,即可开始接收和发送 Kafka 消息。 通过以上步骤,就可以完成 Spring Boot 集成 Kafka配置。在实际项目中,可以根据需要进行进一步的配置和定制,例如实现 Kafka 消息的序列化和反序列化、配置 Kafka 连接池等。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值