Spark性能调优系列:(三)开发调优(尽可能复用同一个RDD)

调优:尽可能复用同一个RDD

在对不同的数据执行算子操作时还要尽可能地复用一个RDD。

多个RDD的数据有重叠或者包含的情况,我们应该尽量复用一个RDD,这样可以尽可能地减少RDD的数量,从而尽可能减少算子执行的次数。

比如:有一个RDD的数据格式是key-value类型的,另一个rdd是单value类型的,这两个RDD的value数据是完全一样的。那么此时我们可以只使用key-value类型的那个RDD,因为其中已经包含了另一个的数据。
案例:

package com.kevin.scala.tuning

import org.apache.spark.{SparkConf, SparkContext}

/**
  * 尽可能复用同一个RDD
  */
object Reuse {

  def main(args: Array[String]): Unit = {
    // 1.创建SparkConf
    val conf = new SparkConf().setAppName("Reuse").setMaster("local")
    // 2.创建SparkContext
    val sc = new SparkContext(conf)
    val file = "DTSparkCore\\src\\main\\resources\\words.txt"
    // 错误示例,这个案例可能不太好,但表达出意思就行
    //    val rdd = sc.textFile(file).flatMap(_.split(" ")).map(value => (value,1))
    //    val rdd1 = sc.textFile(file).flatMap(_.split(" "))
    //    rdd.reduceByKey(_+_)
    //    rdd1.filter(value => !value.contains("java"))
    // 优化一:创建的rdd源只有一个。优化二:复用RDD
    val rdd = sc.textFile(file).flatMap(_.split(" ")).map(value => (value,1))
    // 取key的次数
    rdd.reduceByKey(_+_)
    // 过滤掉java
    rdd.filter(value => !value._1.contains("java"))

    // 关闭sc
    sc.stop()

  }

}

 

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值