Spark -- cache和unpersist的正确用法

背景

  cache和unpersist没有使用好,跟根本没用没啥区别,例如下面的例子,有可能很多人这样用:

val rdd1 = ... // 读取hdfs数据,加载成RDD
rdd1.cache

val rdd2 = rdd1.map(...)
val rdd3 = rdd1.filter(...)

rdd1.unpersist

rdd2.take(10).foreach(println)
rdd3.take(10).foreach(println)

  上面代码的意图是:既然rdd1会被利用两次,那么就缓存起来,用完后释放内存。问题是,rdd1还没有被复用,就被“释放”了,导致rdd2,rdd3在执行take时,仍然需要从hdfs中加载rdd1,没有到达cache效果。
  这就是很多人使用cache和unpersist的误区,以为cache没起作用,其实是自己使用的问题。

原理

  这里要从RDD的操作谈起,RDD的操作分为两类:action和tranformation。
  区别是tranformation输入RDD,输出RDD,且是缓释执行的;而action输入RDD,输出非RDD,且是即刻执行的。
  上面的代码中,hdfs加载数据,map,filter都是transformation,take是action。所以当rdd1加载时,并没有被调用,直到take调用时,rdd1才会被真正的加载到内存。

  cache和unpersisit两个操作比较特殊,他们既不是action也不是transformation。cache会将标记需要缓存的rdd,真正缓存是在第一次被相关action调用后才缓存;unpersisit是抹掉该标记,并且立刻释放内存。

  所以,综合上面两点,可以发现,在rdd2的take执行之前,rdd1,rdd2均不在内存,但是rdd1被标记和剔除标记,等于没有标记。所以当rdd2执行take时,虽然加载了rdd1,但是并不会缓存。然后,当rdd3执行take时,需要重新加载rdd1,导致rdd1.cache并没有达到应该有的作用所以,正确的做法是将take提前到unpersist之前

例子

失败案例

package com.wisers.spark.qc.cpc

import com.wisers.spark.utils.{DFUtil, IsNullUtil}
import org.apache.spark.sql.{DataFrame, RelationalGroupedDataset, SparkSession}
import org.apache.spark.sql.functions._

/**
 * Created By TheBigBlue on 2020/8/6
 * Description : 入文量统计和解析量统计:总的、pubcode级别的,listing级别的
 */
object EntryStatistics {

  def main(args: Array[String]): Unit = {
    val spark: SparkSession = SparkSession.builder()/*.master("local[6]")*/.appName("EntryStatistics").getOrCreate()
    spark.sparkContext.setLogLevel("WARN")
    val inputFile = if (args.size == 0) System.getProperty("user.dir") + "\\data\\input\\htmlparse\\*.data" else args(0)
) + "\\data\\output1" else args(1)
    import spark.implicits._
    //读文件、base64解码、解压缩、转json、获取属性
    val inputDF = DFUtil.readAndDecomp(spark.sparkContext, inputFile)
      .map(obj => {
        val succFlag = if (IsNullUtil.isEmpty(obj.getString("data"))) 0 else 1
        Data(obj.getString("pubcode"), obj.getString("listing"), succFlag)
      }).toDF().cache()

    //总入文量
    val totalEntry = inputDF.agg(count("succFlag").alias("total"),
      sum(when($"succFlag" === 1, 1).otherwise(0)).alias("succ"),
      sum(when($"succFlag" === 0, 1).otherwise(0)).alias("err"))


    //listing级别的入文量统计
    val listingEntry = aggFunc(inputDF.groupBy("pubcode", "listing"), spark)

	
	inputDF.unpersist()
    
    DFUtil.saveAsExcel(totalEntry, outputFile, "入文量统计")
    DFUtil.saveAsExcel(listingEntry, outputFile, "入文量listing级别统计")
    spark.close()
  }

  def aggFunc(groupedDS: RelationalGroupedDataset, spark: SparkSession): DataFrame = {
    import spark.implicits._
    groupedDS.agg(count("succFlag").alias("总数量"),
      sum(when($"succFlag" === 1, 1).otherwise(0)).alias("成功数量"),
      sum(when($"succFlag" === 0, 1).otherwise(0)).alias("失败数量"))
      .sort($"总数量".desc)
  }

  case class Data(pubcode: String, listing: String, succFlag: Int)
}

在这里插入图片描述
在这里插入图片描述

成功案例

package com.wisers.spark.qc.cpc

import com.wisers.spark.utils.{DFUtil, IsNullUtil}
import org.apache.spark.sql.{DataFrame, RelationalGroupedDataset, SparkSession}
import org.apache.spark.sql.functions._

/**
 * Created By TheBigBlue on 2020/8/6
 * Description : 入文量统计和解析量统计:总的、pubcode级别的,listing级别的
 */
object EntryStatistics {

  def main(args: Array[String]): Unit = {
    val spark: SparkSession = SparkSession.builder()/*.master("local[6]")*/.appName("EntryStatistics").getOrCreate()
    spark.sparkContext.setLogLevel("WARN")
    val inputFile = if (args.size == 0) System.getProperty("user.dir") + "\\data\\input\\htmlparse\\*.data" else args(0)
    val outputFile = if (args.size == 0) System.getProperty("user.dir") + "\\data\\output1" else args(1)
    import spark.implicits._
    //读文件、base64解码、解压缩、转json、获取属性
    val inputDF = DFUtil.readAndDecomp(spark.sparkContext, inputFile)
      .map(obj => {
        val succFlag = if (IsNullUtil.isEmpty(obj.getString("data"))) 0 else 1
        Data(obj.getString("pubcode"), obj.getString("listing"), succFlag)
      }).toDF().cache()

    //总入文量
    val totalEntry = inputDF.agg(count("succFlag").alias("total"),
      sum(when($"succFlag" === 1, 1).otherwise(0)).alias("succ"),
      sum(when($"succFlag" === 0, 1).otherwise(0)).alias("err"))
    DFUtil.saveAsExcel(totalEntry, outputFile, "入文量统计")

    //listing级别的入文量统计
    val listingEntry = aggFunc(inputDF.groupBy("pubcode", "listing"), spark)
    DFUtil.saveAsExcel(listingEntry, outputFile, "入文量listing级别统计")

    inputDF.unpersist()
    spark.close()
  }

  def aggFunc(groupedDS: RelationalGroupedDataset, spark: SparkSession): DataFrame = {
    import spark.implicits._
    groupedDS.agg(count("succFlag").alias("总数量"),
      sum(when($"succFlag" === 1, 1).otherwise(0)).alias("成功数量"),
      sum(when($"succFlag" === 0, 1).otherwise(0)).alias("失败数量"))
      .sort($"总数量".desc)
  }

  case class Data(pubcode: String, listing: String, succFlag: Int)
}

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

  • 5
    点赞
  • 13
    收藏
    觉得还不错? 一键收藏
  • 5
    评论
Spark-Thrift和Spark-SQL是Spark框架中的两个组件,它们有以下区别: 1. Spark-SQL是Spark的一个模块,用于处理结构化数据,支持SQL查询和DataFrame API。它提供了一种高效且易于使用的方法来处理和分析结构化数据。用户可以使用SQL语句或DataFrame API来查询和操作数据。Spark-SQL允许用户直接在Spark应用程序中使用SQL查询,而无需编写复杂的MapReduce代码。 2. Spark-Thrift是Spark的一个独立服务,它提供了一个标准的Thrift接口,用于执行SQL查询。它可以作为一个独立的进程运行,并通过网络接收来自客户端的SQL查询请求,并将查询转发到Spark集群中的Spark-SQL模块进行处理。Spark-Thrift使得可以使用不同的编程语言,如Java、Python、R等,通过Thrift接口与Spark集群交互。 因此,Spark-SQL是Spark框架中用于处理结构化数据的模块,而Spark-Thrift是提供Thrift接口让用户可以使用不同编程语言与Spark-SQL模块交互的独立服务。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *3* [CDH15.0支持spark-sql和spark-thrift-server](https://blog.csdn.net/u012458821/article/details/87635599)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 50%"] - *2* [122.Thrift和spark-sql客户端部署](https://blog.csdn.net/m0_47454596/article/details/126856172)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 5
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值