Spark Shuffle写与读过程中的数据跟踪--MapOutputTracker

本文详细解析了Spark Shuffle过程中,下游Stage如何通过MapOutputTracker获取上游Stage的输出数据。具体流程包括上游Task生成MapStatus,通过TaskRunner的run()方法,调用ShuffleMapTask和SortShuffleWriter,将MapStatus发送回Driver,经过一系列的更新和调度过程,最终由DAGScheduler的MapOutputTrackerMaster注册MapStatus,完成数据追踪。
摘要由CSDN通过智能技术生成

这一篇主要是讲解下游Stage如何得到上游Stage输出的数据,对Shuffle过程的数据进行追踪,这主要是利用一个组件——MapOutputTracker。上游Stage将信息写入MapOutputTracker(每个上游Task会产生一个MapStatus记录各分区数据在文件中的偏移等信息,所以这篇文章就是指如何将MapStatus加入到MapOutputTracker中),下游Stage通过MapOutputTracker获得该Stage要处理的数据。

从Task被提交,然后Executor将收到的Task信息封装成TaskRunner对象并加入线程池开始。当该Task执行时,TaskRunner的run()方法被执行。

  1. TaskRunner执行run()方法,其中的重要代码有两处。
val value = Utils.tryWithSafeFinally { // 1
  val res = task.run( // 1
    taskAttemptId = taskId,
    attemptNumber = taskDescription.attemptNumber,
    metricsSystem = env.metricsSystem)
  threwException = false
  res
}

// ...  中间经过一些步骤将value封装为serializedResult。

// 发送Result给Driver
execBackend.statusUpdate(taskId, TaskState.FINISHED, serializedResult) // 2

得到MapStatus的过程

  1. Task的run()方法中调用ShuffleMapTask的runTask()。
writer.write(rdd.iterator(partition, context).asInstanceOf[Iterator[_ <: Product2[Any, Any]]])
writer.stop(success = true).get

SortShuffleWriter的write方法:

// 返回一个状态对象,包含shuffle服务Id和各个分区数据在文件中的位移
mapStatus = MapStatus(blockManager.shuffleServerId, partitionLengths)

所以ShuffleMapTask的runTask()向TaskRunner执行run()返回一个MapStatus对象。

发送MapStatus给Driver的过程

  1. 调用statusUpdate方法
// CoarseGrainedExecutorBackend.scala
override def statusUpdate(taskId: Long, state: TaskState, data: ByteBuffer) {
  val msg = StatusUpdate(executorId, taskId, state, data)
  driver match {
      // 发送消息给Driver
    case Some(driverRef) => driverRef.send(msg) // 1
    case None => logWarning(s"Drop $msg because has not yet connected to driver")
  }
}
  1. Driver收到消息
// CoarseGrainedSchedulerBackend.scala
override def receive: PartialFunction[Any, Unit] = {
    case StatusUpdate(executorId, taskId, state, data) =>
      scheduler.statusUpdate(taskId, state, data.value)
      if (TaskState.isFinished(state)) {
        executorDataMap.get(executorId) match {
          case Some(executorInfo) =>
            executorInfo.freeCores += scheduler.CPUS_PER_TASK
            makeOffers(executorId)
          case None =>
            // Ignoring the update since we don't know about the executor.
            logWarning(s"Ignored task status update ($taskId state $state) " +
              s"from unknown executor with ID $executorId")
        }
      }
}
  1. 调用TaskSchedulerImpl的statusUpdate()方法
// TaskSchedulerImpl.scala
def statusUpdate(tid: Long, state: TaskState, serializedData: ByteBuffer) {
  var failedExecutor: Option[String] = None
  var reason: Option[ExecutorLossReason] = None
  synchronized {
    try {
      Option(taskIdToTaskSetManager.get(tid)) match {
        case Some(taskSet) =>
          if (state == TaskState.LOST) {
            // TaskState.LOST is only used by the deprecated Mesos fine-grained scheduling mode,
            // where each executor corresponds to a single task, so mark the executor as failed.
            val execId = taskIdToExecutorId.getOrElse(tid, throw new Illeg
  • 4
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值