承接上一篇,请求的接收与分发(https://blog.csdn.net/fenglei0415/article/details/106172921),接下来应该是请求队列的通道(https://blog.csdn.net/fenglei0415/article/details/105960812)。本篇是I/O的线程逻辑。
Broker端参数 num.io.threads 参数表示的就是 I/O 线程池的大小。所谓的 I/O 线程池,即 KafkaRequestHandlerPool,也称请求处理线程池。
KafkaRequestHandlerPool
KafkaRequestHandlerPool 是真正处理 Kafka 请求的地方。它所在的文件是 KafkaRequestHandler.scala,位于 core 包的 src/main/scala/kafka/server 下。这是一个不到 400 行的小文件。
主要类如下:
- KafkaRequestHandler:请求处理线程类。每个请求处理线程实例,负责从 SocketServer 的 RequestChannel 的请求队列中获取请求对象,并进行处理。
- KafkaRequestHandlerPool:请求处理线程池,负责创建、维护、管理和销毁下辖的请求处理线程。
- BrokerTopicMetrics:Broker 端与主题相关的监控指标的管理类。
- BrokerTopicStats(C):定义 Broker 端与主题相关的监控指标的管理操作。
- BrokerTopicStats(O):BrokerTopicStats 的伴生对象类,定义 Broker 端与主题相关的监控指标,比如常见的 MessagesInPerSec 和 MessagesOutPerSec 等。
KafkaRequestHandler
// 关键字段说明
// id: I/O线程序号
// brokerId:所在Broker序号,即broker.id值
// totalHandlerThreads:I/O线程池大小
// requestChannel:请求处理通道
// apis:KafkaApis类,用于真正实现请求处理逻辑的类
class KafkaRequestHandler(
id: Int,
brokerId: Int,
val aggregateIdleMeter: Meter,
val totalHandlerThreads: AtomicInteger,
val requestChannel: RequestChannel,
apis: KafkaApis,
time: Time) extends Runnable with Logging {
......
}
从定义可知,KafkaRequestHandler 是一个 Runnable 对象,因此,你可以把它当成是一个线程。每个 KafkaRequestHandler 实例,都有 4 个关键的属性。
- id:请求处理线程的序号,类似于 Processor 线程的 ID 序号,仅仅用于标识这是线程池中的第几个线程。
- brokerId:Broker 序号,用于标识这是哪个 Broker 上的请求处理线程。
- requestChannel:SocketServer 中的请求通道对象。KafkaRequestHandler 对象为什么要定义这个字段呢?我们说过,它是负责处理请求的类,那请求保存在什么地方呢?实际上,请求恰恰是保存在 RequestChannel 中的请求队列中,因此,Kafka 在构造 KafkaRequestHandler 实例时,必须关联 SocketServer 组件中的 RequestChannel 实例,也就是说,要让 I/O 线程能够找到请求被保存的地方。
- apis:这是一个 KafkaApis 类。如果说 KafkaRequestHandler 是真正处理请求的,那么,KafkaApis 类就是真正执行请求处理逻辑的地方。
既然 KafkaRequestHandler 是一个线程类,那么,除去常规的 close、stop、initiateShutdown 和 awaitShutdown 方法,最重要的当属 run 方法实现了,如下所示:
def run(): Unit = {
// 只要该线程尚未关闭,循环运行处理逻辑
while (!stopped) {
val startSelectTime = time.nanoseconds
// 从请求队列中获取下一个待处理的请求
val req = requestChannel.receiveRequest(300)
val endTime = time.nanoseconds
// 统计线程空闲时间
val idleTime = endTime - startSelectTime
// 更新线程空闲百分比指标
aggregateIdleMeter.mark(idleTime / totalHandlerThreads.get)
req match {
// 关闭线程请求
case RequestChannel.ShutdownRequest =>
debug(s"Kafka request handler $id on broker $brokerId received shut down command")
// 关闭线程
shutdownComplete.countDown()
return
// 普通请求
case request: RequestChannel.Request =>
try {
request.requestDequeueTimeNanos = endTime
trace(s"Kafka request handler $id on broker $brokerId handling request $request")
// 由KafkaApis.handle方法执行相应处理逻辑
apis.handle(request)
} catch {
// 如果出现严重错误,立即关闭线程
case e: FatalExitError =>
shutdownComplete.countDown()
Exit.exit(e.statusCode)
// 如果是普通异常,记录错误日志
case e: Throwable => error("Exception when handling request", e)
} finally {
// 释放请求对象占用的内存缓冲区资源
request.releaseBuffer()
}
case null => // 继续
}
}
shutdownComplete.countDown()
}
解释下 run 方法的主要运行逻辑。它的所有执行逻辑都在 while 循环之下,因此,只要标志线程关闭状态的 stopped 为 false,run 方法将一直循环执行 while 下的语句。
第 1 步是从请求队列中获取下一个待处理的请求,同时更新一些相关的统计指标。如果本次循环没取到,那么本轮循环结束,进入到下一轮。如果是 ShutdownRequest 请求,则说明该 Broker 发起了关闭操作。
而 Broker 关闭时会调用 KafkaRequestHandler 的 shutdown 方法,进而调用 initiateShutdown 方法,以及 RequestChannel 的 sendShutdownRequest 方法,而后者就是将 ShutdownRequest 写入到请求队列。
一旦从请求队列中获取到 ShutdownRequest,run 方法代码会调用 shutdownComplete 的 countDown 方法,正式完成对 KafkaRequestHandler 线程的关闭操作。你看看 KafkaRequestHandlerPool 的 shutdown 方法代码,就能明白这是怎么回事了。
def shutdown(): Unit = synchronized {
info("shutting down")
for (handler <- runnables)
handler.initiateShutdown() // 调用initiateShutdown方法发起关闭
for (handler <- runnables)
// 调用awaitShutdown方法等待关闭完成
// run方法一旦调用countDown方法,这里将解除等待状态
handler.awaitShutdown()
info("shut down completely")
}
一旦 run 方法执行了 countDown 方法,程序流解除在 awaitShutdown 方法这里的等待,从而完成整个线程的关闭操作。
如果从请求队列中获取的是普通请求(非shutdown请求),那么,首先更新请求移出队列的时间戳,然后交由 KafkaApis 的 handle 方法执行实际的请求处理逻辑代码。待请求处理完成,并被释放缓冲区资源后,代码进入到下一轮循环,周而复始地执行以上所说的逻辑。
KafkaRequestHandlerPool
KafkaRequestHandlerPool 线程池的实现。它是管理 I/O 线程池的,实现逻辑也不复杂。重点看下,它是如何创建这些线程的,以及创建它们的时机。
// 关键字段说明
// brokerId:所属Broker的序号,即broker.id值
// requestChannel:SocketServer组件下的RequestChannel对象
// api:KafkaApis类,实际请求处理逻辑类
// numThreads:I/O线程池初始大小
class KafkaRequestHandlerPool(
val brokerId: Int,
val requestChannel: RequestChannel,
val apis: KafkaApis,
time: Time,
numThreads: Int,
requestHandlerAvgIdleMetricName: String,
logAndThreadNamePrefix : String)
extends Logging with KafkaMetricsGroup {
// I/O线程池大小
private val threadPoolSize: AtomicInteger = new AtomicInteger(numThreads)
// I/O线程池
val runnables = new mutable.ArrayBuffer[KafkaRequestHandler](numThreads)
......
}
KafkaRequestHandlerPool 对象定义了 7 个属性,其中比较关键的有 4 个,分别来解释下。
- brokerId:和 KafkaRequestHandler 中的一样,保存 Broker 的序号。
- requestChannel:SocketServer 的请求处理通道,它下辖的请求队列为所有 I/O 线程所共享。requestChannel 字段也是 KafkaRequestHandler 类的一个重要属性。
- apis:KafkaApis 实例,执行实际的请求处理逻辑。它同时也是 KafkaRequestHandler 类的一个重要属性。
- numThreads:线程池中的初始线程数量。它是 Broker 端参数 num.io.threads 的值。目前,Kafka 支持动态修改 I/O 线程池的大小,因此,这里的 numThreads 是初始线程数,调整后的 I/O 线程池的实际大小可以和 numThreads 不一致。
I/O 线程池的大小是可以修改的。如果你查看 KafkaServer.scala 中的 startup 方法:
// KafkaServer.scala
dataPlaneRequestHandlerPool = new KafkaRequestHandlerPool(config.brokerId, socketServer.dataPlaneRequestChannel, dataPlaneRequestProcessor, time, config.numIoThreads, s"${SocketServer.DataPlaneMetricPrefix}RequestHandlerAvgIdlePercent", SocketServer.DataPlaneThreadPrefix)
controlPlaneRequestHandlerPool = new KafkaRequestHandlerPool(config.brokerId, socketServer.controlPlaneRequestChannelOpt.get, controlPlaneRequestProcessor, time, 1, s"${SocketServer.ControlPlaneMetricPrefix}RequestHandlerAvgIdlePercent", SocketServer.ControlPlaneThreadPrefix)
由代码可知,Data plane 所属的 KafkaRequestHandlerPool 线程池的初始数量,就是 Broker 端的参数 nums.io.threads,即这里的 config.numIoThreads 值;而用于 Control plane 的线程池的数量,则硬编码为 1。
你可以发现,Broker 端参数 num.io.threads 的值控制的是 Broker 启动时 KafkaRequestHandler 线程的数量。因此,当你想要在一开始就提升 Broker 端请求处理能力的时候,不妨试着增加这个参数值。
是管理 I/O 线程池的类,KafkaRequestHandlerPool 中最重要的字段当属线程池字段 runnables 了。就代码而言,Kafka 选择使用 Scala 的数组对象类实现 I/O 线程池。
createHandler 方法
当线程池初始化时,Kafka 使用下面这段代码批量创建线程,并将它们添加到线程池中:
for (i <- 0 until numThreads) {
createHandler(i) // 创建numThreads个I/O线程
}
// 创建序号为指定id的I/O线程对象,并启动该线程
def createHandler(id: Int): Unit = synchronized {
// 创建KafkaRequestHandler实例并加入到runnables中
runnables += new KafkaRequestHandler(id, brokerId, aggregateIdleMeter, threadPoolSize, requestChannel, apis, time)
// 启动KafkaRequestHandler线程
KafkaThread.daemon(logAndThreadNamePrefix + "-kafka-request-handler-" + id, runnables(id)).start()
}
源码使用 for 循环批量调用 createHandler 方法,创建多个 I/O 线程。createHandler 方法的主体逻辑分为三步:
- 创建 KafkaRequestHandler 实例;
- 将创建的线程实例加入到线程池数组;
- 启动该线程。
resizeThreadPool 方法
这个方法的目的是,把 I/O 线程池的线程数重设为指定的数值。代码如下:
def resizeThreadPool(newSize: Int): Unit = synchronized {
val currentSize = threadPoolSize.get
info(s"Resizing request handler thread pool size from $currentSize to $newSize")
if (newSize > currentSize) {
for (i <- currentSize until newSize) {
createHandler(i)
}
} else if (newSize < currentSize) {
for (i <- 1 to (currentSize - newSize)) {
runnables.remove(currentSize - i).stop()
}
}
threadPoolSize.set(newSize)
}
该方法首先获取当前线程数量。如果目标数量比当前数量大,就利用刚才说到的 createHandler 方法将线程数补齐到目标值 newSize;否则的话,就将多余的线程从线程池中移除,并停止它们。最后,把标识线程数量的变量 threadPoolSize 的值调整为目标值 newSize。
KafkaRequestHandlerPool 类的 3 个重要方法 shutdown、createHandler 和 resizeThreadPool 就分析完了。总体而言,它就是负责管理 I/O 线程池的类。
下一篇就是 分析下KafkaRequestHandler 线程如何将 Response 放入 Processor 线程的 Response 队列。也就是KafakApis类de用途。