现象
最近收到很多RocketMQ使用者反馈在消息发送过程中偶尔会出现如下4个错误信息之一:
1)[REJECTREQUEST]system busy, start flow control for a while
2)too many requests and system thread pool busy, RejectedExecutionException
3)[PC_SYNCHRONIZED]broker busy, start flow control for a while
4)[PCBUSY_CLEAN_QUEUE]broker busy, start flow control for a while, period in queue: %sms, size of queue: %d
原理解读
在进行消息中间件的选型时,如果在功能上、性能上都能满足业务的情况下,建议把中间件的实现语言这个因素也考虑进去,毕竟选择一门用自己擅长的语言实现的中间件会更具掌控性。
在出现异常的情况下,我们可以根据自己的经验提取错误信息关键字 system busy,在RocketMQ 源码中直接搜索,得到抛出上述错误信息的代码如下:
其代码入口为:NettyRemotingAbstract 的 processRequestCommand 方法。从图中可以看出抛出上述错误的关键原因是:pair.getObject1().rejectRequest() 和抛出RejectedExecutionException 异常。
备注:本文偏实战,源码只是作为分析的重点证据,故本文只会点出关键源码,并不会详细跟踪其整个实现流程,如果需详细了解其实现,可以查阅笔者编著的《RocketMQ技术内幕》一书。
RocketMQ 网络处理机制概述
RocketMQ的网络设计非常值得我们学习与借鉴,首先在客户端将不同的请求定义不同的请求命令CODE,服务端会将客户端请求进行分类,每个命令或每类请求定义一个处理器( NettyRequestProcessor ),每一个处理器绑定到一个单独的线程池,不同类型的请求将使用不同的线程池进行处理,实现线程隔离。
我们先简单的认识一下NettyRequestProcessor、Pair、RequestCode。其核心关键点如下:
NettyRequestProcessor
RocketMQ 服务端请求处理器,例如SendMessageProcessor是消息发送处理器、PullMessageProcessor是消息拉取命令处理器。RequestCode
请求CODE,用来区分请求的类型,例如SEND_MESSAGE:表示该请求为消息发送;PULL_MESSAGE:消息拉取请求。Pair
用来封装NettyRequestProcessor与ExecuteService的绑定关系。在RocketMQ 的网络处理模型中,会为每一个 NettyRequestProcessor 与特定的线程池绑定。
pair.getObject1().rejectRequest()
由于读者朋友提出的问题都是发生在消息发送阶段,故本文重点关注SendMessageProcessor的rejectRequest方法。
SendMessageProcessor#rejectRequest
1public boolean rejectRequest() {
2 return this.brokerController.getMessageStore().isOSPageCacheBusy() || // @1
3 this.brokerController.getMessageStore().isTransientStorePoolDeficient(); // @2
4}
拒绝请求的条件有两个,只要其中任意一个满足,则返回true。
代码@1:Os PageCache busy,判断操作系统 PageCache 是否繁忙,如果忙,则返回 true。想必看到这里大家一定与我一样好奇,RocketMQ 是如何判断 pageCache 是否繁忙呢?下面会重点分析。
代码@2:transientStorePool 是否不足。
isOSPageCacheBusy()
DefaultMessageStore#isOSPageCacheBusy()
1public boolean isOSPageCacheBusy() {
2 long begin = this.getCommitLog().getBeginTimeInLock(); // @1 start
3 long diff = this.systemClock.now() - begin; // @1 end
4 return diff 10000000
5 && diff > this.messageStoreConfig.getOsPageCacheBusyTimeOutMills(); // @2
67}
代码@1:先重点解释begin、diff两个局部变量的含义:
begin
通俗的一点讲,就是将消息写入commitlog文件所持有锁的时间,精确的说是将消息体追加到内存映射文件(DirectByteBuffer)或 pageCache 中持有锁的时间,具体的代码请参考:CommitLog 的 putMessage方法。diff
一次消息追加过程中持有锁的总时长,即往内存映射文件或pageCache追加一条消息所耗时间。
代码@2:如果一次消息追加过程的时间超过了Broker配置文件 osPageCacheBusyTimeOutMills,则认为pageCache繁忙,osPageCacheBusyTimeOutMills默认值为1000,表示1s。
isTransientStorePoolDeficient()
DefaultMessageStore#isTransientStorePoolDeficient
1public boolean isTransientStorePoolDeficient() {
2 return remainTransientStoreBufferNumbs() == 0;
3}
4public int remainTransientStoreBufferNumbs() {
5 return this.transientStorePool.remainBufferNumbs();
6}
最终调用TransientStorePool#remainBufferNumbs方法。
1public int remainBufferNumbs() {
2 if (storeConfig.isTransientStorePoolEnable()) {
3 return availableBuffers.size();
4 }
5 return Integer.MAX_VALUE;
6}
如果启用 transientStorePoolEnable 机制,返回当前可用的 ByteBuffer 个数,即该方法的用意是是否还存在可用的 ByteBuffer,如果不存在,即意味着 pageCache 繁忙。
那什么是transientStorePoolEnable机制呢?
漫谈transientStorePoolEnable机制
Java NIO 的内存映射机制,提供了将文件系统中的文件映射到内存,实现对文件的操作转换对内存地址的操作,极大的提高了 IO 性能,但这部分内存并不是常驻内存,可以被置换到交换内存(虚拟内存),RocketMQ 为了提高消息发送的性能,引入了内存锁定机制,即将最近需要操作的commitlog文件映射到内存,并提供内存锁定功能,确保这些文件始终存在于内存中,该机制的控制参数就是transientStorePoolEnable。
MappedFile
重点关注MappedFile的 writeBuffer、mappedByteBuffer 这两个属性的初始化,因为这两个属性是写消息与查消息直接操作的数据结构。
两个关键点如下:
ByteBuffer writeBuffer
如果开启了 transientStorePoolEnable,则使用ByteBuffer.allocateDirect(fileSize)创建(java.nio 的内存映射机制)。如果未开启,则为空。MappedByteBuffer mappedByteBuffer
使用FileChannel#map方法创建,即真正意义上的PageCache。
消息写入时:MappedFile#appendMessagesInner
从中可见在消息写入时,如果 writerBuffer 不为空,说明开启了 transientStorePoolEnable机制,消息首先写入 writerBuffer 中,如果其为空,则写入mappedByteBuffer中。
消息拉取(读消息):
MappedFile#selectMappedBuffer
消息读取时,从 mappedByteBuffer 中读,即从 PageCache中读取。
大家是不是发现了一个有趣的点,如果开启transientStorePoolEnable机制,就有了读写分离的效果,先写入writerBuffer中,读却是从mappedByteBuffer中读取。
为了对 transientStorePoolEnable 引入意图阐述的更加清晰,这里我引入 Rocketmq 社区贡献者胡宗棠关于此问题的见解。
通常有如下两种方式进行读写:
第一种,Mmap+PageCache的方式,读写消息都走的是pageCache,这样子读写都在pagecache里面不可避免会有锁的问题,在并发的读写操作情况下,会出现缺页中断增加,内存加锁,污染页的回写。
第二种,DirectByteBuffer(堆外内存)+PageCache的两层架构方式,这样子可以实现读写消息分离,写入消息时候写到的是DirectByteBuffer——堆外内存中,读消息走的是PageCache (对于,DirectByteBuffer 是两步刷盘,一步是刷到 PageCache,还有一步是刷到磁盘文件中),带来的好处就是,避免了内存操作的很多容易堵的地方,降低了时延,比如说缺页中断降低,内存加锁,污染页的回写。
温馨提示:如果想与胡宗棠大神进一步沟通交流,可以关注他的github账号:https://github.com/zongtanghu
不知道大家会不会有另外一个担忧,如果开启了transientStorePoolEnable,内存锁定机制,那是不是随着commitlog文件的不断增加,最终导致内存溢出?
TransientStorePool初始化
从这里可以看出,TransientStorePool 默认会初始化5个 DirectByteBuffer(堆外内存),并提供内存锁定功能,即这部分内存不会被置换,可以通过 transientStorePoolSize 参数控制。
在消息写入时,首先从池子中获取一个 DirectByteBuffer 进行消息的追加。
当5个DirectByteBuffer 全部写满消息后,该如何处理呢?
从 RocketMQ 的设计中来看,同一时间,只会对一个commitlog文件进行顺序写,写完一个后,继续创建一个新的commitlog文件。
故 TransientStorePool 的设计思想是循环利用这5个 DirectByteBuffer,当写入到 DirectByteBuffer 的内容被提交到 PageCache 后即可重复利用。对应的代码如下:
TransientStorePool#returnBuffer
1public void returnBuffer(ByteBuffer byteBuffer) {
2 byteBuffer.position(0);
3 byteBuffer.limit(fileSize);
4 this.availableBuffers.offerFirst(byteBuffer);
5}
其调用栈如下:
从上面的分析看来,并不会随着消息的不断写入而导致内存溢出。
现象解答
[REJECTREQUEST]system busy
其抛出的源码入口点:NettyRemotingAbstract 的 processRequestCommand 方法,上面在原理分析部分已经详细介绍其实现原理,总结如下。
在不开启 transientStorePoolEnable 机制时,如果 Broker PageCache 繁忙时则抛出上述错误,判断 PageCache 繁忙的依据就是向 PageCache 追加消息时,如果持有锁的时间超过1s,则会抛出该错误;在开启 transientStorePoolEnable 机制时,其判断依据是如果TransientStorePool 中不存在可用的堆外内存时抛出该错误。
too many requests
其抛出的源码入口点:NettyRemotingAbstract 的 processRequestCommand方法,其调用地方是在向线程池执行任务时,被线程池拒绝执行时抛出的,我们可以顺便看看Broker消息处理发送的线程信息:
BrokerController#registerProcessor
该线程池的队列长度默认为10000,我们可以通过 sendThreadPoolQueueCapacity 来改变默认值。
[PC_SYNCHRONIZED]broker busy
其抛出的源码入口点:DefaultMessageStore 的 putMessage 方法,在进行消息追加时,再一次判断 PageCache 是否繁忙,如果繁忙,则抛出上述错误。
broker busy, period in queue: %sms, size of queue: %d
其抛出源码的入口点:BrokerFastFailure 的 cleanExpiredRequest方法。每隔10s中执行一次该方法,不过有一个执行前提条件是需要 Broker 端要开启快速失败,默认为开启,可以通过参数 brokerFastFailureEnable 来设置。
该方法的实现要点是每隔10s,检测一次,如果检测到 PageCache 繁忙,并且发送队列中还有排队的任务,则直接不再等待,直接抛出系统繁忙错误,使正在排队的线程快速失败,结束等待。
实践建议
经过上面的原理讲解与现象分析,消息发送时抛出 system busy、broker busy 的原因都是由于 PageCache 繁忙,那是不是可以通过调整上述提到的某些参数来避免抛出错误呢?例如如下参数:
osPageCacheBusyTimeOutMills
设置PageCache系统超时的时间,默认为1000,表示1s,那是不是可以把增加这个值,例如设置为2000或3000。作者观点:非常不可取。sendThreadPoolQueueCapacity
Broker服务器处理的排队队列,默认为10000,如果队列中积压了10000个请求,则会抛出RejectExecutionException。作者观点:不可取。brokerFastFailureEnable
是否启用快速失败,默认为true,表示当如果发现Broker服务器的PageCache繁忙,如果发现sendThreadPoolQueue队列中不为空,表示还有排队的发送请求在排队等待执行,则直接结束等待,返回broker busy。那如果不开启快速失败,则同样可以避免抛出这个错误。作者观点:非常不可取。
修改上述参数,都不可取,原因是出现 system busy、broker busy 这个错误,其本质是系统的 PageCache 繁忙,通俗一点讲就是向 PageCache 追加消息时,单个消息发送占用的时间超过1s了,如果继续往该 Broker 服务器发送消息并等待,其TPS根本无法满足,哪还是高性能的消息中间了呀。故才会采用快速失败机制,直接给消息发送者返回错误,消息发送者默认情况会重试2次,将消息发往其他 Broker,保证其高可用。
下面根据个人的见解,提出如下解决办法。
开启transientStorePoolEnable
在broker配置文件中将transientStorePoolEnable设置为true。
方案依据:
启用“读写”分离,消息发送时消息先追加到DirectByteBuffer(堆外内存)中,然后在异步刷盘机制下,会将DirectByteBuffer中的内容提交到PageCache,然后刷写到磁盘。消息拉取时,直接从PageCache中拉取,实现了读写分离,减轻了PageCaceh的压力,能从根本上解决该问题。方案缺点:
会增加数据丢失的可能性,如果 Broker JVM 进程异常退出,提交到 PageCache 中的消息是不会丢失的,但存在堆外内存(DirectByteBuffer)中但还未提交到 PageCache 中的这部分消息,将会丢失。
扩容 Broker 服务器
方案依据:
当 Broker 服务器自身比较忙的时候,快速失败,并且在接下来的一段时间内会规避该Broker,这样该 Broker 恢复提供了时间保证,Broker 本身的架构是支持分布式水平扩容的,增加Topic 的队列数,降低单台 Broker 服务器的负载,从而避免出现 PageCache。
温馨提示:在 Broker 扩容的时候,可以复制集群中任意一台 Broker 服务下${ROCKETMQ_HOME}/store/config/topics.json 到新 Broker 服务器指定目录,避免在新 Broker 服务器上为 Broker 创建队列,然后消息发送者、消息消费者都能动态获取 Topic 的路由信息。
与之扩容对应的,也可以通过对原有Broker进行升配,例如增加内存、把机械盘换成SSD,但这种情况,通常需要重启Broekr服务器,没有扩容来的方便。
温馨提示:关于系统内核的调整,RocketMQ 官方提供了建议配置,在 RocketMQ 安装包的 bin 目录下有一个 os.sh 文件。