spring-boot 集成 kafka

本文介绍了如何在Spring Boot项目中集成Kafka 2.5.7,包括生产者和消费者的配置,以及使用示例代码。详细展示了配置文件的设置,如服务器地址、序列化方式等,并提供了创建和查询Kafka主题的Linux命令。此外,还展示了生产者和消费者的具体Java代码实现,以及消费者的监听和线程池配置。
摘要由CSDN通过智能技术生成

spring-boot 集成 kafka 2.5.7

1.maven依赖(生产者、消费者都需要)
<!-- kafka-->
<dependency>
     <groupId>org.springframework.kafka</groupId>
     <artifactId>spring-kafka</artifactId>
     <version>2.5.7</version>
 </dependency>
2.生产者配置文件yml格式:
spring:
  kafka:
    ## kafka服务器地址 多个服务集群“,”分隔
    bootstrap-servers: 127.0.0.1:9092,127.0.0.2:9092
    producer:
      acks: 0
      retries: 1
      buffer-memory: 33554432
      key-serializer: org.apache.kafka.common.serialization.StringSerializer
      value-serializer: org.apache.kafka.common.serialization.StringSerializer
      #每当多个记录被发送到同一分区时,生产者将尝试将记录一起批量处理为更少的请求,
      #这有助于提升客户端和服务器上的性能,此配置控制默认批量大小(以字节为单位),默认值为16384
      # batch-size: 100
      # 如果不设置linger.ms,其默认值就是0
      # linger.ms: 5
    topic:
      testTopic: testTopicName
      testTopicTwo: testTopicNameTwo
2.消费者配置文件yml格式:
spring:
  kafka:
    ## kafka服务器地址
    bootstrap-servers: 127.0.0.1:9092,127.0.0.2:9092
    consumer:
      # 设置kafka的消费者组
      group-id: group_name
      # 自动提交的时间间隔 在spring boot 2.X 版本中这里采用的是值的类型为Duration 需要符合特定的格式,如1S,1M,2H,5D
      auto-commit-interval: 1S
      # 该属性指定了消费者在读取一个没有偏移量的分区或者偏移量无效的情况下该作何处理:
      # latest(默认值)在偏移量无效的情况下,消费者将从最新的记录开始读取数据(在消费者启动之后生成的记录)
      # earliest :在偏移量无效的情况下,消费者将从起始位置读取分区的记录
      # 实时生产,实时消费,不会从头开始消费
      auto-offset-reset: latest
      # 是否自动提交偏移量,默认值是true,为了避免出现重复数据和数据丢失,可以把它设置为false,然后手动提交偏移量
      enable-auto-commit: true
      # 键的反序列化方式
      key-deserializer: org.apache.kafka.common.serialization.StringDeserializer
      # 值的反序列化方式
      value-deserializer: org.apache.kafka.common.serialization.StringDeserializer
      # 批量消费每次最多消费多少条消息
      max-poll-records: 50
    listener:
      # 在侦听器容器中运行的线程数。
      concurrency: 1
      # 设置批量消费
      type: batch
      #listner负责ack,每调用一次,就立即commit
      #      ack-mode: manual_immediate
      # 如果Broker上不存在至少一个配置的主题(topic),则容器是否无法启动,
      # 该设置项结合Broker设置项allow.auto.create.topics=true,如果为false,则会自动创建不存在的topic
    #      missing-topics-fatal: false
    # 主题同生产者
    topic:
      testTopic: testTopicName
      testTopicTwo: testTopicNameTwo
4.linux命令,在kafka安装目录下执行
  • 查询zk中的主题 ./bin/kafka-topics.sh --list --zookeeper 127.0.0.1:2181
  • 创建主题./bin/kafka-topics.sh --create --zookeeper 127.0.0.1:2181 --replication-factor 2 --partitions 1 --topic Re_receive
5.生产者代码
import lombok.extern.slf4j.Slf4j;
import org.springframework.beans.factory.annotation.Autowired;
import org.springframework.kafka.core.KafkaTemplate;
import org.springframework.kafka.support.SendResult;
import org.springframework.stereotype.Component;
import org.springframework.util.concurrent.ListenableFuture;
import org.springframework.util.concurrent.ListenableFutureCallback;

//发送数据工具类
@Component
@Slf4j
public class DataProducer {
    @Autowired
    private KafkaTemplate<String, Object> kafkaTemplate;

	//向指定主题中发送数据
    public void send(String topic,Object obj) {
        //发送消息
        ListenableFuture<SendResult<String, Object>> future = kafkaTemplate.send(topic, obj);
        //回调函数
        future.addCallback(new ListenableFutureCallback<SendResult<String, Object>>() {
            @Override
            public void onFailure(Throwable throwable) {
                //发送失败的处理
                log.info(topic + " - 生产者 发送消息失败:" + throwable.getMessage());
            }

            @Override
            public void onSuccess(SendResult<String, Object> stringObjectSendResult) {
                //成功的处理
                log.info(topic + " - 生产者 发送消息成功");
            }
        });
    }

}

生产者业务类:

    @Value("${spring.kafka.topic.testTopic}")
    private String topic;
    @Resource
    DataProducer dp;

	//发送数据到kafka
	public void testSendInfo(){
		//发送数据看个人要求,只要发送和解析同步即可,这里使用对象转jsonString
		MyInfoObj info = new MyInfoObj();
		dp.send(furnaceTopic, JSON.toJSONString(info));
	}
5.消费者代码
import com.alibaba.fastjson.JSONObject;
import lombok.extern.slf4j.Slf4j;
import org.apache.kafka.clients.consumer.ConsumerRecord;
import org.springframework.kafka.annotation.KafkaListener;
import org.springframework.stereotype.Component;

import javax.annotation.Resource;
import java.util.List;
import java.util.concurrent.Executor;

@Component
@Slf4j
public class ProductionConsumer {

    @Resource(name = "taskExecutor")
    private Executor taskExecutor;

	//监听
    @KafkaListener(topics = "${spring.kafka.topic.testTopic}")
    public void consumer(List<ConsumerRecord<String, String>> records) {
        //这里接收到之后开了个线程,便于异步处理
        taskExecutor.execute(() -> {
            for (ConsumerRecord<String, String> record : records) {
                consumerRecord(record);
            }
        });
    }
	//业务处理方法
    public void consumerRecord(ConsumerRecord<String, String> record) {
        try {
        	//接收发送信息
            JSONObject json = JSONObject.parseObject(record.value());
        } catch (Exception e) {
            log.error("kafka接收数据异常" + e);
        }
    }

}

taskExecutor线程池类(配置根据自己的要求,这里不做详细介绍)


import org.springframework.context.annotation.Bean;
import org.springframework.context.annotation.Configuration;
import org.springframework.scheduling.concurrent.ThreadPoolTaskExecutor;

import java.util.concurrent.Executor;

@Configuration
public class ExecutorConfig {

    @Bean("taskExecutor")
    public Executor taskExecutro(){
        ThreadPoolTaskExecutor taskExecutor = new ThreadPoolTaskExecutor();
        //配置核心线程数
        taskExecutor.setCorePoolSize(100);
        //配置最大线程数
        taskExecutor.setMaxPoolSize(150);
        //配置队列大小
        taskExecutor.setQueueCapacity(500);
        taskExecutor.setKeepAliveSeconds(60);
        //配置线程池中的线程的名称前缀
        taskExecutor.setThreadNamePrefix("taskExecutor--");
        //用来设置线程池关闭的时候等待所有任务都完成再继续销毁其他的Bean
        taskExecutor.setWaitForTasksToCompleteOnShutdown(true);
        //设置线程池中任务的等待时间,如果超过这个时候还没有销毁就强制销毁,以确保应用最后能够被关闭,而不是阻塞住
        taskExecutor.setAwaitTerminationSeconds(60);
        //执行初始化
        taskExecutor.initialize();
        return taskExecutor;
    }
}

– 本文完

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

ywh22122

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值