KafKa消费(代码实例)

Maven配置

<dependency>
	<groupId>org.springframework.cloud</groupId>
	<artifactId>spring-cloud-starter-stream-kafka</artifactId>
</dependency>

Nacos配置

提示:Nacos配置使用的是Spring Cloud Stream

spring:
  cloud:
    stream:
      kafka:
        binder:
          replication-factor: 1
          brokers: <kafka地址>
          auto-create-topics: true       
          auto-add-partitions: true
          #最大传参:10.48M
          producer-properties:
            max.request.size: 10485760
      bindings:
      	# 任务创建-生产者 - Producer
        createModel-out-0:
          #主题
          destination: test-model-topic
          content-type: application/json
        # 任务创建-消费者 - Consumer
        createModel-in-0:
          destination: test-model-topic
          content-type: application/json
          # 消费组,同一个组内只能被消费一次
          group: mark-model_test
          #消费者实例数:10
          consumer.concurrency: 10
          # 对应服务中接收消息的Bean
    function:
      definition: createModel;

Kafka生产者

import cn.hutool.json.JSONObject;
import lombok.RequiredArgsConstructor;
import lombok.extern.slf4j.Slf4j;
import org.springframework.cloud.stream.function.StreamBridge;
import org.springframework.stereotype.Service;

/**
 * @description: 生产者
 * @Author sq.cai
 * @Date 2023/5/4 11:35
 * @Version 1.0
 */
@Slf4j
@Service
@RequiredArgsConstructor
public class KafkaProvider {
    private final StreamBridge streamBridge;
 	/**
     * 任务(创建任务)
     *
     * @param kafkaModelVO
     */
    public void modelCreate(String kafkaModelVO) {
        streamBridge.send(MQConstant.MODEL_CREATE_OUT, kafkaModelVO);
    }
}
/**
 * @description:	常量参数
 * @Author sq.cai
 * @Date 2023/5/4 11:37
 * @Version 1.0
 */
public class MQConstant {
    /**
     * 任务创建
     */
    public static final String MODEL_CREATE_OUT = "createModel-out-0";
}

Kafka消费者

提示:优化消费方法,增加消费者实例数,能加快消费

import cn.hutool.core.bean.BeanUtil;
import cn.hutool.core.convert.Convert;
import cn.hutool.core.date.DateTime;
import cn.hutool.core.date.DateUtil;
import cn.hutool.core.date.StopWatch;
import cn.hutool.core.util.ObjectUtil;
import cn.hutool.core.util.StrUtil;
import cn.hutool.json.JSONUtil;
import com.baomidou.mybatisplus.core.toolkit.StringUtils;
import lombok.extern.slf4j.Slf4j;
import org.apache.commons.math3.stat.descriptive.moment.Mean;
import org.springframework.context.annotation.Bean;
import org.springframework.context.annotation.Lazy;
import org.springframework.data.redis.core.StringRedisTemplate;
import org.springframework.stereotype.Service;

import javax.annotation.Resource;
import java.util.ArrayList;
import java.util.List;
import java.util.Map;
import java.util.concurrent.TimeUnit;
import java.util.function.Consumer;
import java.util.stream.Collectors;

/**
 * @description: 消费者
 * @Author sq.cai
 * @Date 2023/3/17 15:44
 * @Version 1.0
 */
@Slf4j
@Service
public class KafkaConsumer {
	/**
     * 消费
     *
     * @return
     */
    @Bean
    public Consumer<String> createModel() {
        return message -> {
            log.info("Kafka任务记录  >>  {}", message);
            StopWatch s = new StopWatch();
            s.start();
            //将字符串消息体转为对象
            //KafkaModelVO vo = BeanUtil.toBean(JSONUtil.parseObj(message), KafkaModelVO.class);
            //具体消费方法   todo
            s.stop();
            log.info("-----Kafka任务记录耗时  >>  {}", s.getTotalTimeMillis() + "ms");
        };
    }
}

示例

@Resource
private KafkaProvider kafkaProvider;

public static void main(String[] args) {
    String voStr = JSONUtil.toJsonStr(kafkaModelVO);
    log.info("任务添加进Kafka消息队列中  >>  {}", voStr);
    kafkaProvider.modelCreate(voStr);
}

Kafka是一个分布式的消息队列,其最重要的功能之一就是实时流处理。Kafka消费者(Consumer)代码通常由以下几个步骤组成: 1. 创建Kafka Consumer实例:首先需要创建一个Kafka Consumer实例,用于从指定的Topic中读取消息。 ``` Properties props = new Properties(); props.put("bootstrap.servers", "localhost:9092"); props.put("group.id", "test-group"); props.put("enable.auto.commit", "true"); props.put("auto.commit.interval.ms", "1000"); props.put("key.deserializer", "org.apache.kafka.common.serialization.StringDeserializer"); props.put("value.deserializer", "org.apache.kafka.common.serialization.StringDeserializer"); KafkaConsumer<String, String> consumer = new KafkaConsumer<>(props); ``` 2. 订阅Topic:使用consumer.subscribe()方法订阅一个或多个Topic。 ``` consumer.subscribe(Collections.singletonList("my-topic")); ``` 3. 消费消息:使用consumer.poll()方法来拉取消息,然后处理这些消息。在处理完一批消息后,需要手动提交offset以确保消息不会被重复消费。 ``` while (true) { ConsumerRecords<String, String> records = consumer.poll(Duration.ofMillis(100)); for (ConsumerRecord<String, String> record : records) { System.out.printf("offset = %d, key = %s, value = %s%n", record.offset(), record.key(), record.value()); } consumer.commitSync(); } ``` 4. 关闭Consumer:在退出应用程序前,需要调用consumer.close()方法来关闭Consumer实例。 ``` consumer.close(); ```
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值