RocketMQ之消费者并发消费源码解析

并发消费使用示例:

public class BalanceComuser {
    public static void main(String[] args) throws Exception {
        // 实例化消息生产者,指定组名
        DefaultMQPushConsumer consumer = new DefaultMQPushConsumer("consumerGroup");
        // 指定Namesrv地址信息.
        consumer.setNamesrvAddr("127.0.0.1:9876");
        // 订阅Topic
        consumer.subscribe("TopicTest", "*"); //tag  tagA|TagB|TagC
        // 注册回调函数,处理消息
        consumer.registerMessageListener(new MessageListenerConcurrently() {
            @Override
            public ConsumeConcurrentlyStatus consumeMessage(List<MessageExt> msgs,
                                                            ConsumeConcurrentlyContext context) {
                try {
                    for(MessageExt msg : msgs) {
                        String topic = msg.getTopic();
                        String msgBody = new String(msg.getBody(), "utf-8");
                        String tags = msg.getTags();
                        System.out.println("收到消息:" + " topic :" + topic + " ,tags : " + tags + " ,msg : " + msgBody);
                    }
                } catch (Exception e) {
                    e.printStackTrace();
                    return ConsumeConcurrentlyStatus.RECONSUME_LATER;

                }
                return ConsumeConcurrentlyStatus.CONSUME_SUCCESS;
            }
        });
        //启动消息者
        consumer.start();
        System.out.printf("Consumer Started.%n");
    }
}

简单回顾一下,上面就是我们开发者使用消费者去消费RocketMQ中的消息的一个简单例子,而我们重点的业务逻辑通常就是写在消费回调函数中

并发消费服务ConsumeMessageConcurrentlyService源码分析

如果我们是使用MessageListenerConcurrently这个消费监听回调的话,那么在消费者启动的时候,内部会对应创建一个消费服务,这个消费服务就是ConsumeMessageConcurrentlyService,下面我们来看下这个并发消费服务的源码

org.apache.rocketmq.client.impl.consumer.ConsumeMessageConcurrentlyService#submitConsumeRequest

该方法就是拉取消息服务拉取到消息之后,会把消息提交到并发消费服务,此时就会调用到这个方法,其中参数一就是待消费的消息,参数二是拉取mq对应的ProcessQueue,参数三是拉取的mq对象,参数四顺序消费才会用到

/**
 * 提交消费请求任务给消费线程池
 * @param msgs
 * @param processQueue
 * @param messageQueue
 * @param dispatchToConsume
 */
@Override
public void submitConsumeRequest(
    final List<MessageExt> msgs,
    final ProcessQueue processQueue,
    final MessageQueue messageQueue,
    final boolean dispatchToConsume) {
    // 并发消费线程池中每一个线程最多消费多少条消息,默认1条
    final int consumeBatchSize = this.defaultMQPushConsumer.getConsumeMessageBatchMaxSize();
    // 如果拉取到的消息数量 <= 每一个线程最多消费的消息数量,那么直接就创建一个消费请求任务放到并发消费线程池中执行就可以了
    if (msgs.size() <= consumeBatchSize) {
        // 创建消费请求任务
        ConsumeRequest consumeRequest = new ConsumeRequest(msgs, processQueue, messageQueue);
        try {
            // 把消费请求任务放到并发消费线程池中
            this.consumeExecutor.submit(consumeRequest);
        } catch (RejectedExecutionException e) {
            this.submitConsumeRequestLater(consumeRequest);
        }
    }
    // 否则如果拉取到的消息数量 > 每一个线程最多消费的消息数量,那么对待消费的消息进行分批放入到并发消费线程池中
    else {
        for (int total = 0; total < msgs.size(); ) {
            List<MessageExt> msgThis = new ArrayList<MessageExt>(consumeBatchSize);
            for (int i = 0; i < consumeBatchSize; i++, total++) {
                if (total < msgs.size()) {
                    msgThis.add(msgs.get(total));
                } else {
                    break;
                }
            }
            ConsumeRequest consumeRequest = new ConsumeRequest(msgThis, processQueue, messageQueue);
            try {
                this.consumeExecutor.submit(consumeRequest);
            } catch (RejectedExecutionException e) {
                for (; total < msgs.size(); total++) {
                    msgThis.add(msgs.get(total));
                }

                this.submitConsumeRequestLater(consumeRequest);
            }
        }
    }
}

可以看到首先会将待消费的消息按照consumeMessageBatchMaxSize的大小去进行切分成数量相同的消息集合,然后对每一个集合都创建一个消费请求任务,接着就把消费任务放到并发消费线程池中

我们来看下这个消费请求任务

/**
 * 消费请求任务
 */
class ConsumeRequest implements Runnable {

    /**
     * 要消费的消息集合
     */
    private final List<MessageExt> msgs;

    /**
     * 消费消息的队列快照
     */
    private final ProcessQueue processQueue;

    /**
     * 消费消息所属的mq
     */
    private final MessageQueue messageQueue;

    public ConsumeRequest(List<MessageExt> msgs, ProcessQueue processQueue, MessageQueue messageQueue) {
        this.msgs = msgs;
        this.processQueue = processQueue;
        this.messageQueue = messageQueue;
    }

    public List<MessageExt> getMsgs() {
        return msgs;
    }

    public ProcessQueue getProcessQueue() {
        return processQueue;
    }

    @Override
    public void run() {
        // 如果队列被dropped,那么直接返回,不再进行消费
        if (this.processQueue.isDropped()) {
            log.info("the message queue not be able to consume, because it's dropped. group={} {}", ConsumeMessageConcurrentlyService.this.consumerGroup, this.messageQueue);
            return;
        }

        MessageListenerConcurrently listener = ConsumeMessageConcurrentlyService.this.messageListener;
        ConsumeConcurrentlyContext context = new ConsumeConcurrentlyContext(messageQueue);
        ConsumeConcurrentlyStatus status = null;
        defaultMQPushConsumerImpl.resetRetryAndNamespace(msgs, defaultMQPushConsumer.getConsumerGroup());

        ConsumeMessageContext consumeMessageContext = null;
        // 执行hook
        if (ConsumeMessageConcurrentlyService.this.defaultMQPushConsumerImpl.hasHook()) {
            consumeMessageContext = new ConsumeMessageContext();
            consumeMessageContext.setNamespace(defaultMQPushConsumer.getNamespace());
            consumeMessageContext.setConsumerGroup(defaultMQPushConsumer.getConsumerGroup());
            consumeMessageContext.setProps(new HashMap<String, String>());
            consumeMessageContext.setMq(messageQueue);
            consumeMessageContext.setMsgList(msgs);
            consumeMessageContext.setSuccess(false);
            ConsumeMessageConcurrentlyService.this.defaultMQPushConsumerImpl.executeHookBefore(consumeMessageContext);
        }

        long beginTimestamp = System.currentTimeMillis();
        boolean hasException = false;
        ConsumeReturnType returnType = ConsumeReturnType.SUCCESS;
        try {
            if (msgs != null && !msgs.isEmpty()) {
                for (MessageExt msg : msgs) {
                    // 对每一个消息设置 一个开始消费时间
                    MessageAccessor.setConsumeStartTimeStamp(msg, String.valueOf(System.currentTimeMillis()));
                }
            }
            // 消费回调方法,执行具体消费业务逻辑...
            status = listener.consumeMessage(Collections.unmodifiableList(msgs), context);
        } catch (Throwable e) {
            log.warn("consumeMessage exception: {} Group: {} Msgs: {} MQ: {}",
                RemotingHelper.exceptionSimpleDesc(e),
                ConsumeMessageConcurrentlyService.this.consumerGroup,
                msgs,
                messageQueue);
            // 消费回调抛出异常,hasException = true
            hasException = true;
        }
        // 计算消费的消耗时间
        long consumeRT = System.currentTimeMillis() - beginTimestamp;
        if (null == status) {
            if (hasException) {
                returnType = ConsumeReturnType.EXCEPTION;
            } else {
                returnType = ConsumeReturnType.RETURNNULL;
            }
        }
        // 如果一批消息的消费时间 > 15分钟,则returnType == ConsumeReturnType.TIME_OUT
        else if (consumeRT >= defaultMQPushConsumer.getConsumeTimeout() * 60 * 1000) {
            returnType = ConsumeReturnType.TIME_OUT;
        }
        // 如果回调接口返回的状态是RECONSUME_LATER,那么returnType = ConsumeReturnType.FAILED
        else if (ConsumeConcurrentlyStatus.RECONSUME_LATER == status) {
            returnType = ConsumeReturnType.FAILED;
        }
        // 如果回调接口返回的状态是CONSUME_SUCCESS,那么returnType = ConsumeReturnType.SUCCESS
        else if (ConsumeConcurrentlyStatus.CONSUME_SUCCESS == status) {
            returnType = ConsumeReturnType.SUCCESS;
        }

        if (ConsumeMessageConcurrentlyService.this.defaultMQPushConsumerImpl.hasHook()) {
            consumeMessageContext.getProps().put(MixAll.CONSUME_CONTEXT_TYPE, returnType.name());
        }

        // 如果回调接口返回null,或者回调方法抛异常了,那么status = ConsumeConcurrentlyStatus.RECONSUME_LATER
        if (null == status) {
            log.warn("consumeMessage return null, Group: {} Msgs: {} MQ: {}",
                ConsumeMessageConcurrentlyService.this.consumerGroup,
                msgs,
                messageQueue);
            status = ConsumeConcurrentlyStatus.RECONSUME_LATER;
        }

        if (ConsumeMessageConcurrentlyService.this.defaultMQPushConsumerImpl.hasHook()) {
            consumeMessageContext.setStatus(status.toString());
            consumeMessageContext.setSuccess(ConsumeConcurrentlyStatus.CONSUME_SUCCESS == status);
            ConsumeMessageConcurrentlyService.this.defaultMQPushConsumerImpl.executeHookAfter(consumeMessageContext);
        }

        ConsumeMessageConcurrentlyService.this.getConsumerStatsManager()
            .incConsumeRT(ConsumeMessageConcurrentlyService.this.consumerGroup, messageQueue.getTopic(), consumeRT);

        if (!processQueue.isDropped()) {
            // 处理消费结果
            ConsumeMessageConcurrentlyService.this.processConsumeResult(status, context, this);
        } else {
            log.warn("processQueue is dropped without process consume result. messageQueue={}, msgs={}", messageQueue, msgs);
        }
    }

    public MessageQueue getMessageQueue() {
        return messageQueue;
    }

}

可以看到这个消费请求任务就是一个runnable对象,所以原理就是通过将待消费的一批消息切分成数量相同的多批消息,然后切分后的每一批消息都会创建一个消费请求任务让并发消费线程池去进行消费,而并发消费线程池是如何消费这一批批的消息的呢,我们来看它的run方法:

1.判断消费的mq是否已经被dropped了,如果已经被dropped,那么就return,停止消费

2.创建消费上下文对象,执行消费前置钩子方法,并且填充一部分信息到ConsumeMessageContext中

3.对每一个待消费的消息设置一个开始消费时间,然后执行监听消息的回调方法,也就是用户自己的业务逻辑

4.根据监听消息回调方法的返回值去得到returnType的值,并且执行消费后置钩子方法,继续填充ConsumeMessageContext对象

5.执行processConsumeResult方法进行消费结果的处理

上面的步骤比较重要的就是第5点对消费结果的处理,所以直接来到processConsumeResult方法:

org.apache.rocketmq.client.impl.consumer.ConsumeMessageConcurrentlyService#processConsumeResult

public void processConsumeResult(
    final ConsumeConcurrentlyStatus status,
    final ConsumeConcurrentlyContext context,
    final ConsumeRequest consumeRequest
) {

    // 默认是Integer.MAX_VALUE,该值需要配合设置批量消费去使用
    int ackIndex = context.getAckIndex();

    if (consumeRequest.getMsgs().isEmpty())
        return;

    switch (status) {
            // 消费成功
        case CONSUME_SUCCESS:
            // 对于批量消费,如果用户设置的ackIndex大于批量消费消息数,那么ackIndex = 消费数 - 1
            if (ackIndex >= consumeRequest.getMsgs().size()) {
                ackIndex = consumeRequest.getMsgs().size() - 1;
            }

            int ok = ackIndex + 1;
            int failed = consumeRequest.getMsgs().size() - ok;
            // 统计消费成功的消息数量
            this.getConsumerStatsManager().incConsumeOKTPS(consumerGroup, consumeRequest.getMessageQueue().getTopic(), ok);
            // 统计消费失败的消息数量
            this.getConsumerStatsManager().incConsumeFailedTPS(consumerGroup, consumeRequest.getMessageQueue().getTopic(), failed);
            break;

            // 消费失败,ackIndex = -1
        case RECONSUME_LATER:
            ackIndex = -1;
            this.getConsumerStatsManager().incConsumeFailedTPS(consumerGroup, consumeRequest.getMessageQueue().getTopic(),
                consumeRequest.getMsgs().size());
            break;
        default:
            break;
    }

    switch (this.defaultMQPushConsumer.getMessageModel()) {
        case BROADCASTING:
            for (int i = ackIndex + 1; i < consumeRequest.getMsgs().size(); i++) {
                MessageExt msg = consumeRequest.getMsgs().get(i);
                log.warn("BROADCASTING, the message consume failed, drop it, {}", msg.toString());
            }
            break;
        case CLUSTERING:
            List<MessageExt> msgBackFailed = new ArrayList<MessageExt>(consumeRequest.getMsgs().size());


            // 这里有两种情况:
            // 1.在回调方法中返回了RECONSUME_LATER,表示此次消费失败,那么无论是单条消费还是批量消费都会对所有的消息进行回退
            // 2.在回调方法中返回了CONSUME_SUCCESS,表示此次消费成功,那么对于单条消费来说是不会对这条消息进行回退的,
            //   但是如果是批量消费,并且指定了ackIndex,就算是返回了CONSUME_SUCCESS,也会对索引的消息进行回退


            // 举个例子,如果用户设置了批量消费 3 条数据,回调方法的返回值是CONSUME_SUCCESS,ackIndex = 0
            // 第一次遍历 i = 0 + 1 = 1, 1 < 3?,条件成立,所以索引为0的消息就需要进行消息回退,i++
            // 第二次遍历 i = 1 + 1 = 2, 2 < 3?,条件成立,所以索引为1的消息就需要进行消息回退,i++
            // 第三次遍历 i = 2 + 1 = 3, 3 < 3?,条件不成立,所以索引为2的消息不需要进行消息回退,跳出循环
            // 也就是说对于批量消费,ackIndex的意思就是该索引本身及(从0开始)之后的消息都需要进行消息回退
            for (int i = ackIndex + 1; i < consumeRequest.getMsgs().size(); i++) {
                MessageExt msg = consumeRequest.getMsgs().get(i);
                // 向broker发起消息回退请求
                // 什么是消息回退?当消费失败之后,消费者会重新向broker发送一个延迟消息,当该消息到达到期时间的时候就又会被消费者所重新消费,到达了消费重试的目的
                boolean result = this.sendMessageBack(msg, context);
                // 请求失败,重试
                if (!result) {
                    // 消息重消费次数 + 1
                    msg.setReconsumeTimes(msg.getReconsumeTimes() + 1);
                    // 消息加入到响应失败集合
                    msgBackFailed.add(msg);
                }
            }

            // 把响应失败的消息从consumeRequest中移除
            if (!msgBackFailed.isEmpty()) {
                consumeRequest.getMsgs().removeAll(msgBackFailed);

                // 把响应失败的消息延迟5s后重新放到消费服务线程中进行再次消费
                this.submitConsumeRequestLater(msgBackFailed, consumeRequest.getProcessQueue(), consumeRequest.getMessageQueue());
            }
            break;
        default:
            break;
    }

    // 把被真正消费成功的消息从msgTreeMap中移除,怎样才算真正的消费成功? 这里消费成功的 或者消费失败但是消息回退成功都算是真正的消费成功
    // 如果移除完msg之后msgTreeMap已经没有数据了,那么返回offset就等于当前ProcessQueue最大偏移量 + 1, 反之返回的offset就等于当前ProcessQueue最小偏移量
    long offset = consumeRequest.getProcessQueue().removeMessage(consumeRequest.getMsgs());
    if (offset >= 0 && !consumeRequest.getProcessQueue().isDropped()) {
        // 更新本地内存中该mq的已消费偏移量
        this.defaultMQPushConsumerImpl.getOffsetStore().updateOffset(consumeRequest.getMessageQueue(), offset, true);
    }
}

首先就是会根据用户在监听消费回调方法的返回值去进行不同的逻辑判断,这里用户能够返回的枚举只有两个,一个是CONSUME_SUCCESS表示消费成功,另一个是RECONSUME_LATER表示消费失败,可能需要重消费。我们先来看CONSUME_SUCCESS的处理

case CONSUME_SUCCESS:
    // 对于批量消费,如果用户设置的ackIndex大于批量消费消息数,那么ackIndex = 消费数 - 1
    if (ackIndex >= consumeRequest.getMsgs().size()) {
        ackIndex = consumeRequest.getMsgs().size() - 1;
    }

    int ok = ackIndex + 1;
    int failed = consumeRequest.getMsgs().size() - ok;
    // 统计消费成功的消息数量
    this.getConsumerStatsManager().incConsumeOKTPS(consumerGroup, consumeRequest.getMessageQueue().getTopic(), ok);
    // 统计消费失败的消息数量
    this.getConsumerStatsManager().incConsumeFailedTPS(consumerGroup, consumeRequest.getMessageQueue().getTopic(), failed);
    break;

如果消费成功,那么ackIndex就等于待消费的msg长度 -1(默认ackIndex == Integer.MAX_VALUE),而这个ackIndex有什么用呢?我们跳到下面的代码

for (int i = ackIndex + 1; i < consumeRequest.getMsgs().size(); i++) {
    MessageExt msg = consumeRequest.getMsgs().get(i);
    // 向broker发起消息回退请求
    // 什么是消息回退?当消费失败之后,消费者会重新向broker发送一个延迟消息,当该消息到达到期时间的时候就又会被消费者所重新消费,到达了消费重试的目的
    boolean result = this.sendMessageBack(msg, context);
    // 请求失败,重试
    if (!result) {
        // 消息重消费次数 + 1
        msg.setReconsumeTimes(msg.getReconsumeTimes() + 1);
        // 消息加入到响应失败集合
        msgBackFailed.add(msg);
    }
}

// 把响应失败的消息从consumeRequest中移除
if (!msgBackFailed.isEmpty()) {
    consumeRequest.getMsgs().removeAll(msgBackFailed);

    // 把响应失败的消息延迟5s后重新放到消费服务线程中进行再次消费
    this.submitConsumeRequestLater(msgBackFailed, consumeRequest.getProcessQueue(), consumeRequest.getMessageQueue());
}

可以看到如果ackIndex = msg的长度 - 1,那么这个for循环就不会进来了,同样的我们看RECONSUME_LATER的处理

case RECONSUME_LATER:
    ackIndex = -1;
    this.getConsumerStatsManager().incConsumeFailedTPS(consumerGroup, consumeRequest.getMessageQueue().getTopic(),
        consumeRequest.getMsgs().size());
    break;

当消费回调接口返回RECONSUME_LATER的时候,ackIndex直接就等于-1了,而当ackIndex == -1的时候,上面的for循环就能把每一个待消费的msg都遍历一遍,那么这里for循环中都对每一个msg做什么呢?答案就是去做消息的回退,也就是消费者会把消费失败的消息当做一个延迟消息发送给broker,之后当延时时间结束之后消费者就能够从broker中再次拿到这个消息进行重消费,所以这就是为什么返回值叫RECONSUME_LATER,而不是CONSUME_FAIL了吧?因为消费失败之后,消费者是不会就此罢休的,而是通过延迟消息的方式去再次对消息进行重消费。这里我们先不去看消息回退的如何实现的,后面再说~,紧接着就是需要去更新消费进度了

// 把被真正消费成功的消息从msgTreeMap中移除,怎样才算真正的消费成功? 这里消费成功的 或者消费失败但是消息回退成功都算是真正的消费成功
// 如果移除完msg之后msgTreeMap已经没有数据了,那么返回offset就等于当前ProcessQueue最大偏移量 + 1, 反之返回的offset就等于当前ProcessQueue最小偏移量
long offset = consumeRequest.getProcessQueue().removeMessage(consumeRequest.getMsgs());
if (offset >= 0 && !consumeRequest.getProcessQueue().isDropped()) {
    // 更新本地内存中该mq的已消费偏移量
    this.defaultMQPushConsumerImpl.getOffsetStore().updateOffset(consumeRequest.getMessageQueue(), offset, true);
}

先从ProcessQueue中移除掉已经消费的消息,这里需要注意的是,消息回退失败的那些消息是不会被移除的,只有消费成功的,或者消费重试并且消息回退成功的消息才能从ProcessQueue中被移除,我们看一下移除的逻辑:

org.apache.rocketmq.client.impl.consumer.ProcessQueue#removeMessage

/**
 * 从msgTreeMap中移除消息
 * @param msgs  要移除的msg
 * @return  如果移除完msg之后msgTreeMap已经没有数据了,那么返回offset就等于当前ProcessQueue最大偏移量 + 1, 反之返回的offset就等于当前ProcessQueue最小偏移量
 */
public long removeMessage(final List<MessageExt> msgs) {
    long result = -1;
    final long now = System.currentTimeMillis();
    try {
        // 加写锁
        this.lockTreeMap.writeLock().lockInterruptibly();
        this.lastConsumeTimestamp = now;
        try {
            if (!msgTreeMap.isEmpty()) {
                // 如果移除完msg之后,msgTreeMap已经为空了,那么就返回ProcessQueue中最大偏移量 + 1
                result = this.queueOffsetMax + 1;
                int removedCnt = 0;
                // 把消息从msgTreeMap中删除,并且更新msgSize,msgCount
                for (MessageExt msg : msgs) {
                    MessageExt prev = msgTreeMap.remove(msg.getQueueOffset());
                    if (prev != null) {
                        removedCnt--;
                        msgSize.addAndGet(0 - msg.getBody().length);
                    }
                }
                msgCount.addAndGet(removedCnt);

                // 如果移除完了msg之后,msgTreeMap不为空,那么就返回ProcessQueue中最小偏移量
                if (!msgTreeMap.isEmpty()) {
                    result = msgTreeMap.firstKey();
                }
            }
        } finally {
            this.lockTreeMap.writeLock().unlock();
        }
    } catch (Throwable t) {
        log.error("removeMessage exception", t);
    }

    return result;
}

可以看到当移除了这部分消息之后,如果ProcessQueue中已经没有消息了,那么就返回ProcessQueue中最大偏移量 + 1,反之如果processQueue还有消息,就返回ProcessQueue最小偏移量

if (offset >= 0 && !consumeRequest.getProcessQueue().isDropped()) {
    // 更新本地内存中该mq的已消费偏移量
    this.defaultMQPushConsumerImpl.getOffsetStore().updateOffset(consumeRequest.getMessageQueue(), offset, true);
}

拿到要更新的消费进度之后,就通过消费进度组件去进行更新了,这里我们只针对集群模式来说,在集群模式下消费者本地先会保存消费进度,然后消费者启动的时候会启动一个定时任务去把本地内存中保存的消费进度发送到broker端去进行持久化,而根据上面返回的消费进度逻辑来看,是有可能会造成消费的重复消费的,因为消费的时候是线程池多线程去消费的,也就是一堆顺序的消息在经过多线程去执行消费的时候,有可能是会造成后面的消息先消费完然后就去更新消费进度,此时ProcessQueue还有着前面的消息(还没消费完),那么就会返回前面第一条消息的偏移量并且还会持久化到broker中,所以当有该消费者组的其他消费者实例分配到该mq去消费的时候,从broker端拿到的该mq已消费偏移量就是之前正在消费的消息了,也就是造成了重复消费。

如何提高并发消费的速度?

可以增加并发消费线程池的线程数量,修改consumeThreadMin以及consumeThreadMax;默认并发消费时每一个线程每次只会消费一个消息,所以我们也可以修改参数使得每一个线程每一次消费一批消息,通过修改consumeMessageBatchMaxSize,并且使用了批量消费之后,还可以通过context.setAckIndex()方法去指定这批消息中哪些消息是消费失败需要被重试。

  • 2
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值