Kafka问题优化之消费重复问题

一 重复消费

1.1 原因

  • 强行kill线程,导致消费后的数据,offset没有提交(消费系统宕机、重启等)
  • 网络波动,导致offset没提交
  • 当消费者消费的速度很慢的时候,可能在一个session周期内还未完成,导致心跳机制检测报告出问题
  • 消费后的数据,当offset还没有提交时,partition就断开连接
  • 最根本的原因是消费之后的offset未提交

1.2 解决方法

  • 第一种思路是提高消费能力,提高单条消息的处理速度,例如对消息处理中比 较耗时的步骤可通过异步的方式进行处理、利用多线程处理等。在缩短单条消息消费时常的同时,根据实际场景可将max.poll.interval.ms值设置大一点,避免不 必要的rebalance,此外可适当减小max.poll.records的值,默认值是500,可根 据实际消息速率适当调小。这种思路可解决因消费时间过长导致的重复消费问题, 对代码改动较小,但无法绝对避免重复消费问题。
  • 第二种思路是引入单独去重机制,例如生成消息时,在消息中加入唯一标识符如消息id等。在消费端,我们可以保存最近的1000条消息id到redis或mysql表中,配置max.poll.records的值小于1000。在消费消息时先通过前置表去重后再进行消息的处理。

1.3 重复消费问题

  • 模拟网络问题
package com.demo.demo.kafka;

import com.demo.demo.pojo.MsgInfo;
import com.google.gson.Gson;
import com.google.gson.GsonBuilder;
import org.apache.kafka.clients.consumer.ConsumerRecord;
import org.springframework.beans.factory.annotation.Autowired;
import org.springframework.kafka.annotation.KafkaListener;
import org.springframework.kafka.core.KafkaTemplate;
import org.springframework.kafka.support.Acknowledgment;
import org.springframework.scheduling.annotation.Scheduled;
import org.springframework.stereotype.Component;

import java.text.SimpleDateFormat;
import java.util.ArrayList;
import java.util.Date;
import java.util.List;
import java.util.Map;
import java.util.concurrent.atomic.AtomicLong;

/**
 * @Author shu
 * @Date: 2021/10/28/ 19:55
 * @Description
 **/
@Component
public class KafkaTest {
    //topic
    private final static String TOPIC_NAME = "my-replicated-topic";
    //程序执行的初始时间,只会保留一份
    private static final AtomicLong lastRecieveMessage = new AtomicLong(System.currentTimeMillis());
    //时间转换
    private static final SimpleDateFormat simpleDateFormat = new SimpleDateFormat("yyyy-MM-dd HH:mm:ss");
    //缓存
    private final List<ConsumerRecord<String,String>> DataList = new ArrayList<>(500);
    //json
    private final Gson gson = new GsonBuilder().create();
    //kafka
    @Autowired
    private KafkaTemplate<Object,Object> kafkaTemplate;

    /**
     * 消息接受者(每隔1分钟执行)
     */
    @Scheduled(cron = "0 */1 * * * ?")
    public void Consumer() {
        long last = lastRecieveMessage.get();
        long current = System.currentTimeMillis();
        if ((current - last) > (60 * 1000)){
            System.out.println(DataList);
            for (ConsumerRecord<String, String> consumerRecord : DataList) {
                MsgInfo info = gson.fromJson(consumerRecord.value(), MsgInfo.class);
                System.out.println("消息:"+info);
            }
            DataList.clear();
        }
    }



    /**
     * 消息发送者(30s执行一次)
     */
    @Scheduled(cron = "0/30 * * * * ? ")
    public void Provide(){
        long last = lastRecieveMessage.get();
        long current = System.currentTimeMillis();
        if ((current - last) > (30 * 1000) ){
            MsgInfo msgInfo=new MsgInfo(current-last,"消息服务",last,new Date());
            kafkaTemplate.send(TOPIC_NAME,"power",gson.toJson(msgInfo));
        }

    }


    /**
     * 单条消费
     * @param record
     * @param ack
     */
    @KafkaListener(topics = TOPIC_NAME,groupId = "MyGroup1")
    public void listenGroup(ConsumerRecord<String, String> record, Acknowledgment ack) {
        DataList.add(record);
        //⼿动提交offset
        //ack.acknowledge();
    }
}
  • 观察结果

在这里插入图片描述

在这里插入图片描述

  • 恢复网络,正常通信
    /**
     * 单条消费
     * @param record
     * @param ack
     */
    @KafkaListener(topics = TOPIC_NAME,groupId = "MyGroup1")
    public void listenGroup(ConsumerRecord<String, String> record, Acknowledgment ack) {
        DataList.add(record);
        //⼿动提交offset
       ack.acknowledge();
    }
  • 观察结果

在这里插入图片描述

在这里插入图片描述

  • 对比

在这里插入图片描述

在这里插入图片描述

结论:造成了重复消费

1.4 解决

package com.demo.demo.config;

import org.redisson.Redisson;
import org.redisson.api.RedissonClient;
import org.redisson.config.Config;
import org.springframework.beans.factory.annotation.Configurable;
import org.springframework.context.annotation.Bean;
import org.springframework.context.annotation.Configuration;

/**
 * @Author shu
 * @Date: 2021/10/29/ 19:34
 * @Description redisson配置
 **/
@Configuration
public class RedissonConfig {
    @Bean
    public RedissonClient redissonClient() {
        Config config = new Config();
        config.useSingleServer()
                .setAddress("redis://ip:6379")
                .setPassword("admin123");
        return Redisson.create(config);
    }
}

package com.demo.demo.kafka;

import com.demo.demo.pojo.MsgInfo;
import com.demo.demo.utils.RedisUtil;
import com.google.gson.Gson;
import com.google.gson.GsonBuilder;
import org.apache.kafka.clients.consumer.ConsumerRecord;
import org.redisson.api.RLock;
import org.redisson.api.RedissonClient;
import org.springframework.beans.factory.annotation.Autowired;
import org.springframework.kafka.annotation.KafkaListener;
import org.springframework.kafka.core.KafkaTemplate;
import org.springframework.kafka.support.Acknowledgment;
import org.springframework.scheduling.annotation.Scheduled;
import org.springframework.stereotype.Component;

import javax.annotation.Resource;
import java.text.SimpleDateFormat;
import java.util.ArrayList;
import java.util.Date;
import java.util.List;
import java.util.concurrent.atomic.AtomicLong;

/**
 * @Author shu
 * @Date: 2021/10/29/ 19:17
 * @Description 分布式锁解决kafka消费重复的问题
 **/
@Component
public class RedissonKafka {

    private final static String TOPIC_NAME = "my-replicated-topic";
    //程序执行的初始时间,只会保留一份
    private static final AtomicLong lastRecieveMessage = new AtomicLong(System.currentTimeMillis());
    //时间转换
    private static final SimpleDateFormat simpleDateFormat = new SimpleDateFormat("yyyy-MM-dd HH:mm:ss");
    //前缀
    private static final String KEY_PREFIX = "key";
    //缓存
    private final List<ConsumerRecord<String,String>> DataList = new ArrayList<>(500);
    //json
    private final Gson gson = new GsonBuilder().create();
    //kafka
    @Resource
    private KafkaTemplate<Object,Object> kafkaTemplate;
    //redisson
    @Resource
    private RedissonClient redissonClient;



    /**
     * 消息接受者(每隔30分钟执行)
     */
    @Scheduled(cron = "0/35 * * * * ?")
    public void Consumer() {
        long last = lastRecieveMessage.get();
        long current = System.currentTimeMillis();
        if ((current - last) > (60 * 1000)){
            //初始化
            redissonClient.getBucket("key").set(1);
            for (ConsumerRecord<String, String> consumerRecord : DataList) {
                //获取锁
                RLock lock = redissonClient.getLock(redissonClient.getBucket(consumerRecord.key()).get().toString());
                //上锁
                lock.lock();
                MsgInfo info = gson.fromJson(consumerRecord.value(), MsgInfo.class);
                System.out.println("消息:"+info);
                redissonClient.getBucket(consumerRecord.key()).set(consumerRecord.offset()+1);
                //解锁
                lock.unlock();
            }
            DataList.clear();
        }
    }



    /**
     * 消息发送者(30s执行一次)
     */
    @Scheduled(cron = "0/30 * * * * ? ")
    public void Provide(){
        long last = lastRecieveMessage.get();
        long current = System.currentTimeMillis();
        if ((current - last) > (30 * 1000) ){
            MsgInfo msgInfo=new MsgInfo(current-last,"消息服务",last,new Date());
            kafkaTemplate.send(TOPIC_NAME,"key",gson.toJson(msgInfo));
        }

    }


    /**
     * 单条消费
     * @param record
     * @param ack
     */
    @KafkaListener(topics = TOPIC_NAME,groupId = "MyGroup1")
    public void listenGroup(ConsumerRecord<String, String> record, Acknowledgment ack) {
        DataList.add(record);
        ack.acknowledge();
    }

}

    }
  • 3
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 5
    评论
多线程分区消费Kafka是一种通过多个线程同时消费Kafka消息的方式。在Kafka中,一个主题可以被分成多个分区,每个分区可以由一个或多个消费者线程来消费。以下是一种实现多线程分区消费Kafka的方式: 1. 创建一个Kafka消费者实例:使用适当的配置参数创建一个Kafka消费者实例,指定要消费的主题和消费者组ID。 2. 获取主题的分区列表:通过调用`consumer.partitionsFor(topic)`方法,获取指定主题的所有分区。 3. 创建消费者线程:根据分区列表创建相应数量的消费者线程。每个线程负责消费一个或多个分区。 4. 启动消费者线程:启动所有的消费者线程,使它们开始消费消息。 5. 消费消息:每个消费者线程在一个无限循环中执行以下操作: - 通过`consumer.poll()`方法获取一批待消费的消息。 - 遍历消息列表,处理每条消息。 - 提交偏移量:在消息处理完成后,通过`consumer.commitSync()`方法提交消费偏移量,确保下次启动时可以继续从上次的位置消费。 6. 处理异常情况:在消费过程中可能会出现异常,如网络故障或处理消息时的错误。你可以根据需要添加异常处理逻辑,比如重新连接Kafka、重试消息处理等。 需要注意的是,多线程消费Kafka消息时,需要确保线程之间的同步和并发访问控制,以避免数据竞争和重复消费问题。可以使用线程安全的数据结构和同步机制来实现这一点。 此外,还可以通过调整消费者线程数量和分区分配策略等参数来优化消费性能。例如,可以根据主题的分区数和消费者线程数来进行分区分配,以实现负载均衡和最大化吞吐量。 希望以上信息对你有所帮助!如果你还有其他问题,请随时提问。
评论 5
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

长安不及十里

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值