Spark3000门徒第11课彻底解密WordCount运行原理总结

今晚听了王家林老师的第11课:彻底解密WordCount运行原理,课堂笔记以及作业如下:

在第一个Stage中,

def textFile(
      path: String,
      minPartitions: Int = defaultMinPartitions): RDD[String] = withScope {
    assertNotStopped()
    hadoopFile(path, classOf[TextInputFormat], classOf[LongWritable], classOf[Text],
      minPartitions).map(pair => pair._2.toString).setName(path)
  }

Hdfs:存储(分布式)数据      hadoopRDD:从hdfs上读取分布式数据,MapPartitionRdd操作,基于HadoopRDD产生的Partition去掉行的Key,不要索引只要文件内容,

textFile:hdfs->HadoopRDD->MapPartitionRDD

FlatMap: MapPartitionRdd操作:对每个Partition中的每一行单词切分并合并成一个大的单词实例的集合

val pairs = words.map{ word => (word,1)}

这一步MapPartitionRdd操作:对每个单词实例变为形如word => (word,1)

shuffle经过网络传输,

reduceByKey 源码 :

def combineByKeyWithClassTag[C](
  new ShuffledRDD[K, V, C](self, partitioner)
        .setSerializer(serializer)
        .setAggregator(aggregator)
        .setMapSideCombine(mapSideCombine)
    }

保存数据到HDFS的角度讲shuffle后还有一个MapPartitionRDD

def saveAsTextFile(path: String) {
    this.map(x => (NullWritable.get(), new Text(x.toString)))
      .saveAsHadoopFile[TextOutputFormat[NullWritable, Text]](path)
  }

所以第二个Stage有 ShuffledRDD 和MapPartitionsRDD

 

后续课程可以参照新浪微博 王家林_DT大数据梦工厂:http://weibo.com/ilovepains

王家林  中国Spark第一人,微信公共号DT_Spark

博客:http://bolg.sina.com.cn/ilovepains

 

转载请说明出处!

转载于:https://www.cnblogs.com/haitianS/p/5128894.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值