源码解析Spark各个ShuffleWriter的实现机制(三)——SortShuffleWriter

基于3.2版本分支。

SortShuffleWriter

想象远超内存大小的数据需要排序的场景,显然全量加载数据到内存进行排序是不可行的,那就需要将数据放在硬盘中,即外部排序,Spark采取的是归并排序1,这就是SortShuffleWriter做的事情。

SortShuffleWriter在写入时,会根据是否有mapSideCombine2选择使用不同的数据结构来进行排序。有mapSideCombine,那么采取map或buffer。

归并排序分为两个阶段,第一阶段是分片输出有序文件,第二阶段是归并输出整体有序文件。先看Spark中对第一阶段是如何实现的:

// SortShuffleWriter
override def write(records: Iterator[Product2[K, V]]): Unit = {
   
  sorter = if (dep.mapSideCombine) {
   
    // 有mapSideCombine,就有传入aggerator和keyOrdering
    new ExternalSorter[K, V, C](
      context, dep.aggregator, Some(dep.partitioner), dep.keyOrdering, dep.serializer)
  } else {
   
    // In this case we pass neither an aggregator nor an ordering to the sorter, because we don't
    // care whether the keys get sorted in each partition; that will be done on the reduce side
    // if the operation being run is sortByKey.
    // 没有mapSideCombine,aggerator和keyOrdering就都是空的
    // 结合上边的官方注释,在不需要mapSideCombine的场景下,就不需要关心每个rdd分区中key的排序;
    // 如有需要,就在sortByKey即reduce端进行排序
    new ExternalSorter[K, V, V](
      context, aggregator = None, Some(dep.partitioner), ordering = None, dep.serializer)
  }
  // 也就是在insertAll中通过对有无aggreator的判断,选择了对应的数据结构,完成排序并写入到外部文件中,
  // 需要进一步查看该实现
  sorter.insertAll(records)

  // 省略归并排序第二阶段
  // ...
}
// ExternalSort
def insertAll(records: Iterator[Product2[K, V]]): Unit = {
   
  // TODO: stop combining if we find that the reduction factor isn't high
  val shouldCombine = aggregator.isDefined

  if (shouldCombine) {
   
    // 这里也就是在实现mapSideCombine,将相同Key的结果聚合起来
    // Combine values in-memory first using our AppendOnlyMap
    val mergeValue = aggregator.get.mergeValue
    val createCombiner = aggregator.get.createCombiner
    var kv: Product2[K, V] = null
    val update = (hadValue: Boolean, oldValue: C) => {
   
      // 聚合相同key对应的值
      if (hadValue) mergeValue(oldValue, kv._2) else createCombiner(kv._2)
    }
    while (records.hasNext) {
   
      // 记录下读取的数据条数
      addElementsRead()
      kv = records.next()
      // 更新key对应的值
      map.changeValue((getPartition(kv._1), kv._1), update)
      // 这里判断是否需要分割到不同的文件,需要进一步查看该实现
      maybeSpillCollection(usingMap = true)
    }
  } else {
   
    // Stick values into our buffer
    // 不需要聚合相同key
    while (records.hasNext) {
   
      addElementsRead()
      val kv = records.next
本套大数据热门技术Spark+机器学习+贝叶斯算法系列课程,历经5年沉淀,调研企业上百家,通过上万学员汇总,保留较为完整的知识体系的同时,让每个模块看起来小而精,碎而不散。在本课程中基于大量案例实战,深度剖析和讲解Spark2.4原理和新特性,且会包含完全从企业真实业务需求中抽取出的案例实战。内容涵盖Spark核心编程、Spark SQL和Spark Streaming、Spark内核以及源码剖析、推荐系统、Kafka消费机制Spark机器学习、朴素贝叶斯算法、企业级实战案例等。通过理论和实际的紧密结合,可以使学员对大数据Spark技术栈有充分的认识和理解,在项目实战中对Spark和流式处理应用的场景、以及大数据开发有更深刻的认识;并且通过对流处理原理的学习和与批处理架构的对比,可以对大数据处理架构有更全面的了解,为日后成长为架构师打下基础。本套教程可以让学员熟练掌握Spark技术栈,提升自己的职场竞争力,实现更好的升职或者跳槽,或者从J2EE等传统软件开发工程师转型为Spark大数据开发工程师,或是对于正在从事Hadoop大数据开发的朋友可以拓宽自己的技术能力栈,提升自己的价值。Spark应用场景Yahoo将Spark用在Audience Expansion中的应用,进行点击预测和即席查询等。淘宝技术团队使用了Spark来解决多次迭代的机器学习算法、高计算复杂度的算法等。应用于内容推荐、社区发现等。腾讯大数据精准推荐借助Spark快速迭代的优势,实现了在“数据实时采集、算法实时训练、系统实时预测”的全流程实时并行高维算法,最终成功应用于广点通pCTR投放系统上。优酷土豆将Spark应用于视频推荐(图计算)、广告业务,主要实现机器学习、图计算等迭代计算。本套大数据热门技术Spark+机器学习+贝叶斯算法共计13季,本套为第6季。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值