Kafka整合springcloud

 1、系统架构

spring-cloud版本Hoxton.SR4
spring-boot版本
2.2.6.RELEASE
java版本1.8
Kafka版本2.4.0.RELEASE

2、pom引入Kafka依赖

<!--Kafka消息队列-->
<dependency>
   <groupId>org.springframework.kafka</groupId>
   <artifactId>spring-kafka</artifactId>
   <version>2.4.0.RELEASE</version>
</dependency>

!!!!!注意!!!!!

spring-kafka与spring-boot的版本对应,详情参考网址:Spring for Apache Kafka

3、编写yml配置

  #kafka配置
  kafka:
    producer:
      bootstrap-servers: {你的Kafka服务器IP}
      retries: 0
      batch-size: 4096         #单位是字节
      buffer-memory: 33554432   #单位是字节,默认是33554432字节即32MB
      #序列化类,可以自己写然后配置在这里
      value-serializer: org.springframework.kafka.support.serializer.JsonSerializer
    consumer:
      enable-auto-commit: false #禁止自动提交offest
      auto-offset-reset: latest 
      bootstrap-servers: {你的Kafka服务器IP}
      group-id: {你的Kafka群组id}

4、编写Kafka配置类,注册消费者在这里

/**
 * Kafka配置
 * @date 2024年01月18日 11:30
 */

@Configuration
@EnableKafka
public class KafkaConfig {
    Logger logger= LoggerFactory.getLogger(KafkaConfig.class);


    /**
     * 注册消费者
     * @date 2024/1/18 11:31
     * @return KafkaReceiver
     */
    @Bean
    public ZfxtMsgPendingTaskReceiver listener() {
        return new ZfxtMsgPendingTaskReceiver();
    }
}

5、编写生产者

/**
     * 发送
     * @date 2024/1/18 16:32
     * @param topic Kafka标签名
     * @param key 消息id
     * @param data 数据
     */
    public void send(String topic, String key, MsgPendingTaskKafkaDTO data) {
        //发送消息
        ListenableFuture<SendResult<String, MsgPendingTaskKafkaDTO>> send = kafkaTemplate.send(topic, key, data);
        //异步发送,编写监听器监听结果
        send.completable().whenCompleteAsync((result, ex) -> {
            String s = result.toString();
            if (null == ex) {
                //成功则打点日志
                logger.info("{}生产者发送消息成功:{}", topic, s);
            } else {
                //这里发生错误则存日志进数据库
            }
        });
    }

6、编写消费者

    /**
     * 消费者
     * @date 2024/1/18 16:36
     * @param msg 消息
     */
    @KafkaListener(topics = {你的消息标题,对应发送者的topic字段})
    public void receive(ConsumerRecord<String, String> msg, Acknowledgment ack){
        logger.info("我收到了消息");
        //定义Kafka唯一消息id,避免消息重复消费
        //成功的有没有
        boolean success=zfxtMsgPendingTaskService.hasKey(msg.key());
        //失败的有没有
        boolean exception = kafkaExceptionService.hasKey(msg.key());
        if(success|| exception){
             //两个之中有一个就不处理了
            logger.info("消息重复消费");
        }else{
            //没有自定义序列化要我们自己手动转json
            String value = msg.value();
            MsgPendingTaskKafkaDTO dto = JSON.parseObject(value, MsgPendingTaskKafkaDTO.class);
            //业务处理
        }
        //手动提交偏移量
        ack.acknowledge();
    }

7、要是服务异常导致不能消费或者网络波动导致消费消息失败咋办呢?

我们可以编写消息重试机制,具体如下:

    /**
     * 配置消息重试机制
     * @date 2024/1/19 9:44
     * @param consumerFactory
     * @param exceptionService kafka异常日志记录服务
     * @return org.springframework.kafka.config.KafkaListenerContainerFactory<org.springframework.kafka.listener.ConcurrentMessageListenerContainer<java.lang.String,java.lang.String>>
     */
    @Bean
    public KafkaListenerContainerFactory<ConcurrentMessageListenerContainer<String, String>> kafkaListenerContainerFactory(ConsumerFactory<String, String> consumerFactory,KafkaExceptionService exceptionService) {

        ConcurrentKafkaListenerContainerFactory<String, String> factory = new ConcurrentKafkaListenerContainerFactory<>();
        factory.setConsumerFactory(consumerFactory);
        //设置超时时间1.5s
        factory.getContainerProperties().setPollTimeout(1500);

        logger.info("执行kafka容器工厂配置");

        // 消息是否或异常重试次数3次 (5000=5秒  3=重试3次)
        // 注意: 没有配置配置手动提交offset,不生效, 因为没有配置手动提交时消息接受到就会自动提交,不会管程序是否异常
        // DefaultErrorHandler构造参数包含两个参数:
        // 一个是ConsumerRecordRecoverer消息回收处理器,用于超过重试次数执行对应消息回收
        // (里面包含:{
        // 1、consumerRecord记录kafaka消息的属性,topic,分区,offest偏移量;e:对应异常
        // 2、BiConsumer二元消费者(一元消费者可以参考Collection的forEach函数),accept方法用于编写消费者具体操作,andThen方法用于控制消费者
        // }
        // 得益于这玩意我们可以不需要写handler直接通过lambda函数的方式来编写详细代码
        // )
        // 一个是BackOff延时执行器(interval:时间间隔;maxAttempts:retry次数)

        //自定义错误消息处理器
        SeekToCurrentErrorHandler defaultErrorHandler = new SeekToCurrentErrorHandler(((consumerRecord, e) -> {
            logger.info("kafka消息消费出现异常,e:{}",e.getMessage());
            //超过重试次数记录日志
            Object key = consumerRecord.key();
            if(exceptionService.hasKey(key.toString())){
                logger.warn("id重复");
            }else{
                // TODO: 2024/1/30 记录日志
            }
        }), new FixedBackOff(5000, 3));

        //多个可使用batchErrorHandler
        //设置默认错误处理器
        factory.setErrorHandler(defaultErrorHandler);

        // 最后配置手动提交offset
        factory.getContainerProperties().setAckMode(ContainerProperties.AckMode.MANUAL);
        return factory;
    }

就这样吧

  • 7
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: springcloudkafka结合可以实现微服务之间的消息传递,方便实现系统间的交互。主要步骤有:1. 配置springcloudkafka;2. 使用@EnableBinding注解启用消息绑定;3. 使用@StreamListener注解实现消息的消费;4. 使用@SendTo注解实现消息的发送。 ### 回答2: Spring Cloud是一个用于构建分布式系统的开发工具包,它提供了一系列的解决方案和组件,包括服务注册与发现(Eureka)、负载均衡(Ribbon)、断路器(Hystrix)、网关(Zuul)等。而Kafka是一种高吞吐量的分布式消息队列系统,它可以实现消息的发布订阅模式。 在将Spring CloudKafka进行整合时,我们可以利用Spring Cloud Stream框架来实现。Spring Cloud Stream是一个轻量级的微服务框架,它提供了统一的编程模型,简化了与消息中间件的集成。 首先,我们需要在pom.xml文件中添加Spring Cloud Stream和Kafka相关的依赖项。接下来,我们可以通过配置文件指定Kafka的地址和相关的参数,例如topic名称、分片数等。在Spring Cloud Stream中,将消息发布者称为生产者(producer),将消息订阅者称为消费者(consumer)。 在生产者方面,我们可以使用@EnableBinding注解将Spring Cloud Stream与Kafka进行绑定,并通过定义一个output通道来发送消息。在代码中,我们只需要调用output.send()方法即可将消息发送到Kafka中。 在消费者方面,我们同样使用@EnableBinding注解将Spring Cloud Stream与Kafka进行绑定,并通过定义一个input通道来接收消息。在代码中,我们可以使用@StreamListener注解来监听消息,并进行相应的处理逻辑,例如将消息存储到数据库中或者进行其他的业务操作。 通过以上步骤,我们就完成了Spring CloudKafka整合。在实际的项目中,可以将Kafka用作消息队列,实现服务之间的解耦和异步通信。通过Spring Cloud Stream的支持,我们可以更加方便地使用Kafka,并且将其作为整个分布式系统的消息中间件。这种架构具有高可扩展性和高可靠性,适用于大规模的分布式系统。 ### 回答3: Spring Cloud是一个基于Spring Framework的分布式系统开发框架,而Kafka是一个高吞吐量的分布式发布订阅消息系统。将二者整合起来可以实现可靠的消息传递和分布式的消息处理。 首先,我们需要在Spring Cloud项目中引入Kafka依赖。可以通过在pom.xml文件中添加相应的依赖来实现。然后,在配置文件中配置Kafka的相关参数,包括Kafka集群的地址和端口等信息。 接着,我们需要创建Kafka生产者和消费者。在Spring Cloud中,我们可以使用KafkaTemplate来发送消息,同时我们也可以通过注解@KafkaListener来订阅和处理消息。在生产者中,我们可以使用KafkaTemplate的send()方法来发送消息到Kafka集群。在消费者中,我们可以使用@KafkaListener注解来监听指定的主题,并通过编写对应的业务逻辑代码来处理接收到的消息。 此外,我们还可以使用Spring Cloud Stream来简化整合过程。Spring Cloud Stream是一种基于Spring Boot的用于构建消息驱动的微服务的框架。通过使用Spring Cloud Stream,我们可以进一步简化Kafka的消费者和生产者的创建和配置,只需要编写一些简单的配置文件就可以实现整合。 总的来说,Spring Cloud整合Kafka可以帮助我们实现高可靠性、高吞吐量的分布式消息传递和处理。我们可以通过配置和编写相应的代码来实现Kafka的生产者和消费者功能,同时也可以使用Spring Cloud Stream来简化整合过程。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值