项目实践-Spring Boot实现Kafka消息监听

项目实践-Spring Boot实现Kafka消息监听

前言

**书山有路勤为径,学海无涯苦作舟**
记录程序员生活点点滴滴,希望记录的内容能帮助到努力爬山的各位伙伴!

标签:Kafka/消息监听

一、Kafka概念

  • Kakfa是一个分布式的基于发布/订阅模式的消息队列(message queue)。
  • 消息队列的模式:A.点对点模式 B.发布/订阅模式。
  • 基础架构有:broker(负责缓冲消息)、生产者(负责发布消息)、消费者组(负责处理消息)构成,当前还包括zookeeper(组件集群)。
  • Kafka数据保留时间默认是7天。
  • Kafka中的消息是以topic进行分类的,生产者生成消息,消费者消费消息,都是面向topic的。
  • Topic(partition/replication)是一个逻辑上的概念,而partition是物理上的概念。
  • Kafka的partition的分区的作用:提供并发提高性能,因为读写是partition为单位读写的;
  • kafka通过向生产者发送ack来保证数据可靠性,若生产者确认收到则进行下一轮发送,否则重新发送数据。
  • 推荐一个博主:Kafka概念扫盲

二、SpringBoot集成Kafka

1.引入Maven依赖

	<!--监听kafka-->
	<dependency>
	    <groupId>org.springframework.kafka</groupId>
	    <artifactId>spring-kafka</artifactId>
	</dependency>

2.Kafka基本配置

kafka:
    bootstrap-servers: ${spring.server.ip}:9092
    producer:
      key-serializer: org.apache.kafka.common.serialization.StringSerializer
      value-serializer: org.apache.kafka.common.serialization.StringSerializer
    consumer:
      group-id: kafka-group
      auto-offset-reset: earliest
      enable-auto-commit: true
      auto-commit-interval: 1000
      key-deserializer: org.apache.kafka.common.serialization.StringDeserializer
      value-deserializer: org.apache.kafka.common.serialization.StringDeserializer
      topic-name: kafka_event

备注:

  • 在我的项目中Kafka配置信息放在bootstrap.yml文件中
  • topic-name: kafka_event是本次监听的目标队列

三、实现消息监听

1.创建Kafka配置类

import lombok.extern.slf4j.Slf4j;
import org.apache.kafka.clients.consumer.ConsumerConfig;
import org.apache.kafka.clients.consumer.KafkaConsumer;
import org.springframework.beans.factory.annotation.Autowired;
import org.springframework.beans.factory.annotation.Value;
import org.springframework.context.annotation.Bean;
import org.springframework.context.annotation.Configuration;

import java.util.Collections;
import java.util.Properties;

/**
 * @author Miracle
 * @title: KafkaConfig
 * @projectName proxy
 * @description: 【Kafka配置类】
 * @date 2021/6/1511:20
 */
@Configuration
@Slf4j
public class KafkaConfig {

    @Value("${spring.kafka.bootstrap-servers}")
    public String kafka_server;

    @Value("${spring.kafka.consumer.key-deserializer}")
    public String kafka_consumer_key;

    @Value("${spring.kafka.consumer.value-deserializer}")
    public String kafka_consumer_value;

    @Value("${spring.kafka.consumer.enable-auto-commit}")
    public String kafka_auto_config;

    @Value("${spring.kafka.consumer.auto-commit-interval}")
    public String kafka_commmit_interval;

    @Value("${spring.kafka.consumer.group-id}")
    public String kafka_group_id;

    @Value("${spring.kafka.consumer.topic-name}")
    public String kafka_topic_name;

    @Autowired
    private KafkaConsumerListener kafkaConsumerListener;

    public static KafkaConsumer<String, String> kafkaConsumer;

    @Bean
    public void loadKafkaConfig() {
        Properties p = new Properties();
        p.put(ConsumerConfig.BOOTSTRAP_SERVERS_CONFIG, kafka_server);
        p.put(ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG, kafka_consumer_key);
        p.put(ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG, kafka_consumer_value);
        p.put(ConsumerConfig.ENABLE_AUTO_COMMIT_CONFIG, kafka_auto_config);
        p.put(ConsumerConfig.AUTO_COMMIT_INTERVAL_MS_CONFIG, kafka_commmit_interval);
        p.put(ConsumerConfig.GROUP_ID_CONFIG, kafka_group_id);

        kafkaConsumer = new KafkaConsumer<String, String>(p);
        kafkaConsumer.subscribe(Collections.singletonList(kafka_topic_name));// 订阅消息
        log.info("消息订阅成功!kafka配置:" + p.toString());
        //启动消息监听线程
        KafkaListenerJob kafkaListenerJob = new KafkaListenerJob(kafkaConsumerListener);
        Thread t = new Thread(kafkaListenerJob);
        t.start();
    }
}

2.创建Kafka监听任务

import lombok.extern.slf4j.Slf4j;
import org.apache.kafka.clients.consumer.ConsumerRecord;
import org.apache.kafka.clients.consumer.ConsumerRecords;
import org.springframework.beans.factory.annotation.Autowired;

/**
 * @author Miracle
 * @title: KafkaListenerJob
 * @projectName proxy
 * @description: 【Kafka监听任务】
 * @date 2021/6/1511:20
 */
@Slf4j
public class KafkaListenerJob implements Runnable{

    @Autowired
    private KafkaConsumerListener kafkaConsumerListener;

    //注入消息监听处理类
    public KafkaListenerJob(KafkaConsumerListener kafkaConsumerListener) {
        this.kafkaConsumerListener = kafkaConsumerListener;
    }

    @Override
    public void run() {
        log.info("kafka消息监听任务已启动!");
        //进行消息监听
        while (true) {
            ConsumerRecords<String, String> records = KafkaConfig.kafkaConsumer.poll(100);
            for (ConsumerRecord<String, String> record : records) {
                try {
                    kafkaConsumerListener.listen(record);
                } catch (Exception e) {
                    log.error("消息消费异常!", e);
                }
            }
        }
    }
}

3.Kafka监听任务处理类

import lombok.extern.slf4j.Slf4j;
import org.apache.kafka.clients.consumer.ConsumerRecord;
import org.springframework.beans.factory.annotation.Autowired;
import org.springframework.stereotype.Service;

/**
 * @author Miracle
 * @title: KafkaConsumerListener
 * @projectName proxy
 * @description: 【Kafka监听任务处理】
 * @date 2021/6/1511:21
 */
@Slf4j
@Service
public class KafkaConsumerListener {

    @Autowired
    RabbitMessageProducer rabbitMessageProducer;

    /**
     * kafka消息处理类
     *
     * @param consumerRecord
     */
    public void listen(ConsumerRecord<String, String> consumerRecord) throws Exception {
        try {
            String value = (String) consumerRecord.value();
            log.info("监听Kafka消息:" + value);
            // 实际业务处理逻辑
        }catch (Exception e){
            throw new Exception(this.getClass().getName() + "Kafka消息处理异常:" + e);
        }
    }
}

结言

*登山路上的慕码人,理解不透的地方还请各位指点!*
  • 6
    点赞
  • 19
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 1
    评论
可以使用Spring Kafka提供的@KafkaListener注解来监听Kafka消息。以下是示例代码: 首先,需要在Spring Boot应用程序中添加以下依赖: ```xml <dependency> <groupId>org.springframework.kafka</groupId> <artifactId>spring-kafka</artifactId> <version>2.5.5</version> </dependency> ``` 接下来,在配置类中配置Kafka相关属性: ```java @Configuration @EnableKafka public class KafkaConfiguration { @Value("${spring.kafka.bootstrap-servers}") private String bootstrapServers; @Bean public Map<String, Object> consumerConfigs() { Map<String, Object> props = new HashMap<>(); props.put(ConsumerConfig.BOOTSTRAP_SERVERS_CONFIG, bootstrapServers); props.put(ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG, StringDeserializer.class); props.put(ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG, StringDeserializer.class); props.put(ConsumerConfig.GROUP_ID_CONFIG, "my-group-id"); return props; } @Bean public ConsumerFactory<String, String> consumerFactory() { return new DefaultKafkaConsumerFactory<>(consumerConfigs()); } @Bean public KafkaListenerContainerFactory<ConcurrentMessageListenerContainer<String, String>> kafkaListenerContainerFactory() { ConcurrentKafkaListenerContainerFactory<String, String> factory = new ConcurrentKafkaListenerContainerFactory<>(); factory.setConsumerFactory(consumerFactory()); return factory; } } ``` 在上面的代码中,我们使用@Value注解获取了Spring Boot应用程序中配置的Kafka服务器地址,并配置了Kafka消费者的相关属性。 接下来,我们可以创建一个Kafka消息监听器: ```java @Component public class KafkaMessageConsumer { @KafkaListener(topics = "${spring.kafka.consumer.topic}") public void receiveMessage(String message) { System.out.println("Received message: " + message); } } ``` 在上面的代码中,我们使用@KafkaListener注解来指定要监听Kafka主题,然后定义了一个receiveMessage方法来处理接收到的消息。 最后,我们需要在应用程序的启动类上添加@EnableKafka注解来启用Kafka监听器: ```java @SpringBootApplication @EnableKafka public class MyApplication { public static void main(String[] args) { SpringApplication.run(MyApplication.class, args); } } ``` 这就是使用Spring Kafka监听Kafka消息的示例代码。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

观云卷云舒

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值