springboot kafka group.id多消费组配置

很早之前就使用了springboot + kafka组合配置,但是之前使用的spring-kafka(1.1.7)版本较低,所以只能通过 spring.kafka.consumer.group-id=default_consumer_group 或者 propsMap.put(ConsumerConfig.GROUP_ID_CONFIG, "default_consumer_group");的形式配置一个默认消组,当然理论上这也是没有问题的,但是如果你定义的topic数量过多且并发消费比较大,只有一个消费组的配置方式就会暴露出很多问题,其中主要的一个问题便是每个topic分区的offset偏移量问题(在大并发下会出现offset异常问题),因为他们都保存在同一个消费组中。

直到后来发布了spring-kafka 1.3.x的版本后,增加了groupId的属性,非常方便的帮助我们解决了实现每个topic自定义一个消费组的问题,我们再也不用共用一个消费组了。

接下来通过代码演示看是否如我们的期望一样:

pom依赖

 

<parent>
		<groupId>org.springframework.boot</groupId>
		<artifactId>spring-boot-starter-parent</artifactId>
		<version>1.5.10.RELEASE</version>
		<relativePath/> <!-- lookup parent from repository -->
	</parent>

	<properties>
		<project.build.sourceEncoding>UTF-8</project.build.sourceEncoding>
		<project.reporting.outputEncoding>UTF-8</project.reporting.outputEncoding>
		<java.version>1.8</java.version>
	</properties>

	<dependencies>
		<dependency>
			<groupId>org.springframework.boot</groupId>
			<artifactId>spring-boot-starter-web</artifactId>
		</dependency>
		<!-- https://mvnrepository.com/artifact/org.springframework.kafka/spring-kafka -->
		<dependency>
			<groupId>org.springframework.kafka</groupId>
			<artifactId>spring-kafka</artifactId>
			<version>1.3.5.RELEASE</version>
		</dependency>

		<dependency>
			<groupId>org.springframework.boot</groupId>
			<artifactId>spring-boot-starter-test</artifactId>
			<scope>test</scope>
		</dependency>

		<!--引入elasticsearch-->
		<dependency>
			<groupId>org.springframework.boot</groupId>
			<artifactId>spring-boot-starter-data-elasticsearch</artifactId>
		</dependency>
	</dependencies>

	<build>
		<plugins>
			<plugin>
				<groupId>org.springframework.boot</groupId>
				<artifactId>spring-boot-maven-plugin</artifactId>
			</plugin>
		</plugins>
	</build>

 

application.properties

 

server.port=10087
spring.application.name=example
#topic
spring.kafka.bootstrap-servers=10.0.2.22:9092
kafka.test.topic=TEST_TOPIC


#es
spring.data.elasticsearch.cluster-name=elasticsearch
spring.data.elasticsearch.cluster-nodes=10.0.2.23:9300
#spring.data.elasticsearch.cluster-nodes=10.0.2.22:9300

生产者:

 

/**
  * @author xiaofeng
  * @version V1.0
  * @title: TestKafkaSender.java
  * @package: com.example.demo.kafka.sender
  * @description: kafka生产者
  * @date 2018/4/2 0002 下午 3:31
  */
@Component
public class TestKafkaSender {
    @Autowired
    private KafkaTemplate kafkaTemplate;

    @Value("${kafka.test.topic}")
    String testTopic;

    public void sendTest(String msg){
        kafkaTemplate.send(testTopic, msg);
    }
}

消费者1:

/**
 * @author xiaofeng
 * @version V1.0
 * @title: TestKafkaConsumer2.java
 * @package: com.example.demo.kafka.consumer
 * @description: kafka消费者
 * @date 2018/4/2 0002 下午 3:31
 */
@Component
public class TestKafkaConsumer {

    Logger logger = LoggerFactory.getLogger(getClass());

    /**
     * topics: 配置消费topic,以数组的形式可以配置多个
     * groupId: 配置消费组为”xiaofeng1“
     *
     * @param message
     */
    @KafkaListener(topics = {"${kafka.test.topic}"},groupId = "xiaofeng1")
    public void consumer(String message) {
        logger.info("groupId = xiaofeng1, message = " + message);
    }

}

消费者2:

/**
 * @author xiaofeng
 * @version V1.0
 * @title: TestKafkaConsumer2.java
 * @package: com.example.demo.kafka.consumer
 * @description: kafka消费者
 * @date 2018/4/2 0002 下午 3:31
 */
@Component
public class TestKafkaConsumer2 {

    Logger logger = LoggerFactory.getLogger(getClass());

    /**
     * topics: 配置消费topic,以数组的形式可以配置多个
     * groupId: 配置消费组为”xiaofeng2“
     *
     * @param message
     */
    @KafkaListener(topics = {"${kafka.test.topic}"}, groupId = "xiaofeng2")
    public void consumer(String message) {
        logger.info("groupId = xiaofeng2, message = " + message);
    }

}

 

测试类:

 @Autowired
    TestKafkaSender sender;

    @Test
    public void send() {
        for (int i = 0; i < Integer.MAX_VALUE; i++) {
            logger.info("send message = " + i);
            sender.sendTest(i + "");
            try {
                Thread.sleep(1000);
            } catch (InterruptedException e) {
                e.printStackTrace();
            }
        }
    }

运行效果:

 

  • 9
    点赞
  • 34
    收藏
    觉得还不错? 一键收藏
  • 5
    评论
springboot连接kafka集群的配置可以通过以下步骤完成: 1. 首先,在pom.xml文件中导入spring-kafkakafka-clients的依赖: ```xml <dependency> <groupId>org.springframework.kafka</groupId> <artifactId>spring-kafka</artifactId> </dependency> <dependency> <groupId>org.springframework.kafka</groupId> <artifactId>spring-kafka-test</artifactId> <scope>test</scope> </dependency> <dependency> <groupId>org.apache.kafka</groupId> <artifactId>kafka-clients</artifactId> <version>3.4.0</version> </dependency> ``` 2. 在kafka配置类中,配置kafka的连接属性。可以通过在application.properties或application.yml文件中设置以下属性: ```properties spring.kafka.bootstrap-servers=your-bootstrap-servers spring.kafka.consumer.group-id=your-group-id spring.kafka.producer.key-serializer=org.apache.kafka.common.serialization.StringSerializer spring.kafka.producer.value-serializer=org.apache.kafka.common.serialization.StringSerializer spring.kafka.consumer.key-deserializer=org.apache.kafka.common.serialization.StringDeserializer spring.kafka.consumer.value-deserializer=org.apache.kafka.common.serialization.StringDeserializer ``` 其中,your-bootstrap-servers是kafka集群的地址,your-group-idkafka消费者的ID。 3. 构建发布者类,可以使用KafkaTemplate来发送消息到kafka集群: ```java @Autowired private KafkaTemplate<String, String> kafkaTemplate; public void sendMessage(String topic, String message) { kafkaTemplate.send(topic, message); } ``` 4. 构建消费者类,可以使用@KafkaListener注解来监听kafka消息,并进行消息消费: ```java @KafkaListener(topics = "your-topic") public void receiveMessage(String message) { // 进行消息消费的逻辑处理 } ``` 以上就是springboot连接kafka集群的配置方法。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 5
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值