RocketMQ如何构建ComsumerQueue的?

前言

RocketMQ的消息都是按照先来后到,顺序的存储在CommitLog中的,而消费者通常只关心某个Topic下的消息。顺序的查找CommitLog肯定是不现实的,我们可以构建一个索引文件,里面存放着某个Topic下面所有消息在CommitLog中的位置,这样消费者获取消息的时候,只需要先查找这个索引文件,然后再去CommitLog中获取消息就 OK了。这个索引文件,就是我们的ComsumerQueue。

如何构建

在Broker中,构建ComsummerQueue不是存储完CommitLog就马上同步构建的,而是通过一个线程任务异步的去做这个事情。在DefaultMessageStore中有一个ReputMessageService成员,它就是负责构建ComsumerQueue的任务线程。

public class DefaultMessageStore implements MessageStore {
    // 。。。。省略无关代码
    private final ReputMessageService reputMessageService;
 }   

ReputMessageService继承自ServiceThread,表明其是一个服务线程,它的run方法很简单,如下所示:

 public void run() {
            while (!this.isStopped()) {
                try {
                    Thread.sleep(1);
                    this.doReput(); // 构建ComsumerQueue
                } catch (Exception e) {
                    DefaultMessageStore.log.warn(this.getServiceName() + " service has exception. ", e);
                }
            }
        }

在run方法里,每休息1毫秒就进行一次构建ComsumerQueue的动作。因为必须先写入CommitLog,然后才能进行ComsumerQueue的构建。那么不排除构建ComsumerQueue的速度太快了,而CommitLog还没写入新的消息。这时就需要sleep下,让出cpu时间片,避免浪费CPU资源。

doReput

doReput的代码如下所示:

private void doReput() {
            for (boolean doNext = true; this.isCommitLogAvailable() && doNext; ) {
                SelectMappedBufferResult result = DefaultMessageStore.this.commitLog.getData(reputFromOffset);// 拿到所有的最新写入CommitLog的数据
                if (result != null) {
                    try {
                        this.reputFromOffset = result.getStartOffset();

                        for (int readSize = 0; readSize < result.getSize() && doNext; ) {
                            DispatchRequest dispatchRequest =
                            DefaultMessageStore.this.commitLog.checkMessageAndReturnSize(result.getByteBuffer(), false, false); // 一条一条的读消息
                            int size = dispatchRequest.getMsgSize();

                            if (dispatchRequest.isSuccess()) {
                                if (size > 0) {
                                    DefaultMessageStore.this.doDispatch(dispatchRequest); // 派发消息,进行处理,其中就包括构建ComsumerQueue
                                    this.reputFromOffset += size;
                                    readSize += size;
                                } else if (size == 0) { // 
                                    this.reputFromOffset = DefaultMessageStore.this.commitLog.rollNextFile(this.reputFromOffset);
                                    readSize = result.getSize();
                                }
                            } else if (!dispatchRequest.isSuccess()) { // 获取消息异常

                                if (size > 0) {
                                    log.error("[BUG]read total count not equals msg total size. reputFromOffset={}", reputFromOffset);
                                    this.reputFromOffset += size;
                                } else {
                                    doNext = false;
                                    if (DefaultMessageStore.this.brokerConfig.getBrokerId() == MixAll.MASTER_ID) {
                                        this.reputFromOffset += result.getSize() - readSize;
                                    }
                                }
                            }
                        }
                    } finally {
                        result.release();
                    }
                } else {
                    doNext = false;
                }
            }
        }

为了突出重点,省略了一些和构建ComsumerQueue不相干的代码。在doReput里面,其实做了3件事情:
1-获取最新写入到CommitLog中的数据byteBuffer。
2-从byteBuffer中一条条的读取消息,并派发出去处理。
3-更新reputFromOffset位移。

从何处构建

reputFromOffset是一个非常重要参数,它指出了我们应该从哪里开始构建ComsumerQueue。在DefaultMessageStore的start()方法中,对reputFromOffset进行了初始化:

public void start() throws Exception 
        if (this.getMessageStoreConfig().isDuplicationEnable()) {
            this.reputMessageService.setReputFromOffset(this.commitLog.getConfirmOffset());
        } else {
            this.reputMessageService.setReputFromOffset(this.commitLog.getMaxOffset());
        }
        
        this.reputMessageService.start();
    }

如果允许消息重复,那么reputFromOffset会从CommitLog的ConfirmOffset中获取,否则获取CommitLog的最大偏移量。duplicationEnable默认是关闭的,也就是默认是获取CommitLog的最大写入的偏移量。
我对这个confirmOffset其实并不理解,在代码里也没有搜到设置该值的源头,应该是需要自己实现MessageStore类的时候才用得到。既然默认是不允许重复的,那么这个就不再去深究了,也不影响我们对ComsumerQueue的理解。

看到这里,我其实是有一个疑问的:为什么会从CommitLog的最大偏移量开始构建呢?。按照正常的思路,应该最开始从零开始构建,然后构建一个,reputFromOffset就累加一个。构建完一批后,如果又可以构建了,则接着从上次结束的地方开始构建。我们来一探究竟。

我们先看看getMaxOffset方法:

public long getMaxOffset() {
        MappedFile mappedFile = getLastMappedFile();
        if (mappedFile != null) {
            return mappedFile.getFileFromOffset() + mappedFile.getReadPosition();
        }
        return 0;
    }

在RocketMQ第一次启动时,没有发送消息,Commit文件还没有创建。此时getLastMappedFile()返回的是null,因此getMaxOffset拿到的就是0。也就是说,当RocketMQ第一次启动,构建ConsumerQueue是从头开始的,这个符合我们的期望。通过断点查看reputFromOffset,确实如此,如下所示:
在这里插入图片描述
那么如果CommitLog还有数据没有处理完,Broker通过shutdown正常停止了呢?那下次重新启动,reputFromOffset设置成了getMaxOffset,那不是丢了一部分数据了嘛?

不必担心,在DefaultMessageStore关闭时,会尽力等待数据追上。具体来说就是通过50次sleep,每次100毫秒,如果在这时间内ConsumerQueue可以把数据追平(reputFromOffset == maxOffset),那么就没有问题。如果仍然不能追平,那没办法了,打个警告日志吧。后续可以通过手工重发消息处理。

public void shutdown() {
            for (int i = 0; i < 50 && this.isCommitLogAvailable(); i++) {
                try {
                    Thread.sleep(100);
                } catch (InterruptedException ignored) {
                }
            }

            if (this.isCommitLogAvailable()) {
                log.warn("shutdown ReputMessageService, but commitlog have not finish to be dispatched, CL: {} reputFromOffset: {}",
                    DefaultMessageStore.this.commitLog.getMaxOffset(), this.reputFromOffset);
            }

            super.shutdown();
        }

好,继续回到我们doReput所做的3件事情。

获取数据

当设置好reputFromOffset之后,就可以从CommitLog中获取从reputFromOffset到目前已经写入的所有消息内容。

public SelectMappedBufferResult getData(final long offset, final boolean returnFirstOnNotFound) {
        int mappedFileSize = this.defaultMessageStore.getMessageStoreConfig().getMapedFileSizeCommitLog();
        MappedFile mappedFile = this.mappedFileQueue.findMappedFileByOffset(offset, returnFirstOnNotFound);
        if (mappedFile != null) {
            int pos = (int) (offset % mappedFileSize);
            SelectMappedBufferResult result = mappedFile.selectMappedBuffer(pos);
            return result;
        }

        return null;
    }

首先从mappedFileQueue中,根据偏移量找到消息的mappedFile文件,具体算法是根据reputFromOffset-第一个文件的offset,然后除以单个文件大小,得到该文件的索引值。如果该文件存在,则返回,否则循环查找一遍。
找到文件后,取出对应的byteBuffer内容,封装后返回。

派发处理

拿到所有消息的byteBuffer后,循环读取消息,封装成DispatchRequest进行派发处理。

DefaultMessageStore.this.doDispatch(dispatchRequest);

DispatchRequest类如下所示:

public class DispatchRequest {
    private final String topic;
    private final int queueId;
    private final long commitLogOffset;
    private final int msgSize;
    private final long tagsCode;
    private final long storeTimestamp;
    private final long consumeQueueOffset; // 逻辑偏移量,非物理偏移量
    private final String keys;
    private final boolean success;
    private final String uniqKey;

    // .....省略非重点
  }  

构建ComsumerQueue的派发处理在CommitLogDispatcherBuildConsumeQueue类中进行处理,如下所示:

 public void dispatch(DispatchRequest request) {
            final int tranType = MessageSysFlag.getTransactionValue(request.getSysFlag());
            switch (tranType) {
                case MessageSysFlag.TRANSACTION_NOT_TYPE:
                case MessageSysFlag.TRANSACTION_COMMIT_TYPE:
                    DefaultMessageStore.this.putMessagePositionInfo(request);
                    break;
                case MessageSysFlag.TRANSACTION_PREPARED_TYPE:
                case MessageSysFlag.TRANSACTION_ROLLBACK_TYPE:
                    break;
            }
        }

由于正常情况下是非事务消息,因此走到的是MessageSysFlag.TRANSACTION_NOT_TYPE。

public void putMessagePositionInfo(DispatchRequest dispatchRequest) {
        ConsumeQueue cq = this.findConsumeQueue(dispatchRequest.getTopic(), dispatchRequest.getQueueId());
        cq.putMessagePositionInfoWrapper(dispatchRequest);
    }

然后根据topic和queueId找到对应的ConsumerQueue。这里queueId是Producer发送消息时就根据算法选好了的,具体怎么选的可以参考之前的文章:消息队列如何选择的?。找到队列后,就可以保存相关信息了,如下所示:

 boolean result = this.putMessagePositionInfo(request.getCommitLogOffset(),
                request.getMsgSize(), tagsCode, request.getConsumeQueueOffset());

其中这个cosumerQueueOffset是逻辑偏移量,并非物理偏移量。因为每一个条目都是固定的20个字节大小,
存放的内容是8字节的消息偏移+4字节的消息长度+8字节的tagsCode。这样存储一个索引条目时,通过这个逻辑偏移量*20字节,就可以得到它的物理偏移量。如下所示:

 final long expectLogicOffset = cqOffset * CQ_STORE_UNIT_SIZE;

然后就是熟悉的流程了,找到偏移所在的文件,然后保存内容。

更新reputFromOffset位移

在循环处理消息时,每处理一条,则将reputFromOffset更新。这里更新是根据获取消息的结果来的,因此有必要看看是如何获取单条消息的。

 /**
     * check the message and returns the message size
     *
     * @return 0 Come the end of the file // >0 Normal messages // -1 Message checksum failure
     */
    public DispatchRequest checkMessageAndReturnSize(java.nio.ByteBuffer byteBuffer, final boolean checkCRC,
        final boolean readBody) {}

注释写的比较清楚,size=0,说明到了文件末尾。 > 0说明是正常的消息。< 0说明消息有误。下面我们跟着checkMessageAndReturnSize代码一个个来看:

            int magicCode = byteBuffer.getInt();
            switch (magicCode) {
                case MESSAGE_MAGIC_CODE:
                    break;
                case BLANK_MAGIC_CODE:
                    return new DispatchRequest(0, true /* success */);
                default:
                    log.warn("found a illegal magic code 0x" + Integer.toHexString(magicCode));
                    return new DispatchRequest(-1, false /* success */);
            }

在之前的讲解RocketMQ消息存储结构-CommitLog的时候,讲过这个magicCode:
在这里插入图片描述
因此当该mappedFile没有空间存储该条消息时,其magicCode是BLANK_MAGIC_CODE,此时我们返回的DispatchRequest(0, true /* success */)。后续的处理就是滚动到下一个mappedFile:
在这里插入图片描述
此时reputFromOffset更新为下个文件的偏移开始位置。
注:rollNextFile里面reputFromOffset计算显得略微复杂了,不知为何。其实直接取该mappedFile的fileFromOffset就可以了。

当magicCode不正确的时候,表明消息出问题了。此时返回DispatchRequest(-1, false /* success */)。后续处理就是结束本次doReput,并将reputFromOffset设置到本次数据末尾。
在这里插入图片描述
消息出问题后,Broker MASTER节点的reputFromOffset跳过了剩下的数据,这意味着后续的部分数据都被忽略不再处理了。为什么不仅仅跳过该条消息呢?这里我还不大清楚。

接下来是检查消息CRC,如果检查失败,返回的也是DispatchRequest(-1, false /* success */),处理方法同magicCode一样,都是消息本身有问题的处理方式。

然后是手动计算一遍消息大小和读取的消息大小是否一致,如果不一致,则返回DispatchRequest(totalSize, false/* success */)。此时reputFromOffset就跳过该条消息,如下所示:

this.reputFromOffset += size;

至此,reputFromOffset的更新,我们就讲完了。

通过此篇文章,我们大致的了解了RocketMQ是如何构建消费队列(ConsumerQueue)的。通过一个服务线程,异步的从CommitLog中获取已经写入的消息,然后将消息位置,大小,tagsCode保存至我们的选好的ConsumerQueue中。但是,这里的保存仅仅是写入byteBuffer,还没有真正的落到物理文件上。真正的落盘操作,也是通过服务线程进行异步处理的,限于篇幅,我们后续再谈。

评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值