Spark中的累加器与广播变量及blockmanager图解

一、累加器

1、累加器的引入

        案例:没读取一条文件中的数据,count+1,并打印在Drive端(控制台)

import org.apache.spark.{SparkConf, SparkContext}
import org.apache.spark.rdd.RDD

object Demo20Accumulator {
  def main(args: Array[String]): Unit = {
    val conf = new SparkConf()
    conf.setMaster("local").setAppName("累加器的引入")
    val context = new SparkContext(conf)

    val studentRDD: RDD[String] = context.textFile("spark/data/student.csv")

        var count = 0
        studentRDD.foreach((line:String)=>{
          count+=1
          println("-------------------------")
          println(count)                       //打印1~1000
          println("-------------------------")
        })
        println(s"count的值为:${count}")       //count的值为:0

  }
}

累加器的引入代码图解:

 

2、累加器的应用

object Demo20Accumulator {
  def main(args: Array[String]): Unit = {
    val conf = new SparkConf()
    conf.setMaster("local").setAppName("累加器的应用")
    val context = new SparkContext(conf)

    val studentRDD: RDD[String] = context.textFile("spark/data/student.csv")


    /**
     * 累加器:由SparkContext来创建
     * 注意:
     * 1、累加器能保证在Spark任务出现问题被重启的时候不会出现重复计算. 
     * 2、累加器只有在Action算子执行的时候才会被触发.
     */

    val accumulator: LongAccumulator = context.longAccumulator
    studentRDD.foreach((line: String) => {
      accumulator.add(1)
    })
    println(s"accumulator的值为:${accumulator.value}")    //accumulator的值为:1000
    
  }
}

累加器的应用代码图解:

二、广播变量

1、广播变量的引入

import org.apache.spark.rdd.RDD
import org.apache.spark.{SparkConf, SparkContext}

import scala.io.Source

object Demo21Broadcast {
  def main(args: Array[String]): Unit = {
    val conf = new SparkConf()
    conf.setMaster("local")
    conf.setAppName("广播变量引入演示")
    val context = new SparkContext(conf)

    //使用Scala的方式读取学生数据文件,将其转换以学号作为键的map集合,属于在Driver端的一个变量
    val studentsMap: Map[String, String] = Source.fromFile("spark/data/student.csv")
      .getLines()
      .toList
      .map((line: String) => {
        val infos: Array[String] = line.split(",")
        val stuInfo: String = infos.mkString(",")
        infos(0) -> stuInfo
      }).toMap


    val scoresRDD: RDD[String] = context.textFile("spark/data/score.txt")
    /**
     * 将Spark读取的分数RDD与外部变量学生Map集合进行关联
     * 循环遍历scoresRDD,将学号一样的学生信息关联起来
     */
    val resMapRDD: RDD[(String, String)] = scoresRDD.map((score: String) => {
      val id: String = score.split(",")(0)
      //使用学号到学生map集合中获取学生信息
      val studentInfo: String = studentsMap.getOrElse(id, "无学生信息")
      score -> studentInfo
    })
    resMapRDD.foreach(println)
    
  }
}

广播变量的引入代码图解:

2、广播变量的应用

import org.apache.spark.broadcast.Broadcast
import org.apache.spark.rdd.RDD
import org.apache.spark.{SparkConf, SparkContext}

import scala.io.Source

object Demo21Broadcast {
  def main(args: Array[String]): Unit = {
    val conf = new SparkConf()
    conf.setMaster("local")
    conf.setAppName("广播变量应用演示")
    val context = new SparkContext(conf)

    //使用Scala的方式读取学生数据文件,将其转换以学号作为键的map集合,属于在Driver端的一个变量
    val studentsMap: Map[String, String] = Source.fromFile("spark/data/student.csv")
      .getLines()
      .toList
      .map((line: String) => {
        val infos: Array[String] = line.split(",")
        val stuInfo: String = infos.mkString(",")
        infos(0) -> stuInfo
      }).toMap

    /**
     * 将studentsMap变成一个广播变量,让每一个将来需要执行关联的Executor中都有一份studentsMap数据
     * 避免了每次Task任务拉取都要附带一个副本,拉取的速度变快了,执行速度也就变快了
     *
     */
    val studentsMapBroadcast: Broadcast[Map[String, String]] = context.broadcast(studentsMap)

    val scoresRDD: RDD[String] = context.textFile("spark/data/score.txt")
    /**
     * 使用广播变量进行关联
     */
    val resMapRDD: RDD[(String, String)] = scoresRDD.map((score: String) => {
      val id: String = score.split(",")(0)
      val stuMap: Map[String, String] = studentsMapBroadcast.value     //获取广播变量中的值
      //使用学号到学生map集合中获取学生信息
      val studentInfo: String = stuMap.getOrElse(id, "无学生信息")
      (score, studentInfo)
    })
    resMapRDD.foreach(println)
  }
}

广播变量的应用代码图解:

三、blockmanager  

          在广播变量的应用代码图解中提到了blockmanager拉取Driver端的数据,在此详细说明一下blockmanager,blockmanager是Executor的组成部分之一,它负责管理内存和磁盘上的数据块。

  • 11
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 动态广播变量Spark Streaming非常有用的功能。它可以让我们在流处理过程动态地更新广播变量的值,从而提高程序的性能和灵活性。 在Spark Streaming,我们可以使用SparkContext的broadcast方法来创建广播变量。然后,我们可以在DStream的foreachRDD方法使用广播变量来进行一些计算。 当我们需要动态地更新广播变量的值时,我们可以使用Spark Streaming的transform方法。这个方法可以让我们在DStream使用任意的RDD转换操作,包括更新广播变量的值。 例如,我们可以使用transform方法来读取一个外部的配置文件,并将其转换为一个广播变量。然后,我们可以在DStream的foreachRDD方法使用这个广播变量来进行一些计算。当配置文件发生变化时,我们可以重新读取它,并使用transform方法来更新广播变量的值。 总之,动态广播变量Spark Streaming非常有用的功能,可以帮助我们提高程序的性能和灵活性。 ### 回答2: Spark Streaming的动态广播变量允许我们将一个可变的变量发送到Spark集群的每个节点上,并在每个节点上更新它。这使得我们能够在流数据处理过程共享和更新全局状态。 动态广播变量的使用步骤如下: 1. 创建一个广播变量:使用SparkContext的broadcast方法将一个可变的变量广播到整个集群。例如,可以将一个关键字列表广播Spark Streaming的每个节点上。 2. 在转换操作使用广播变量:在Spark Streaming的转换操作可以通过使用广播变量的value属性来访问广播变量的值。例如,在DStream的foreachRDD操作可以访问广播变量并执行与广播变量相关的计算。 3. 更新广播变量:通过在driver程序修改广播变量的值,然后使用新值再次调用广播方法来更新广播变量的内容。这样,新值将在下一次广播时传播到集群的每个节点。 使用动态广播变量的好处是可以将一些全局状态共享到整个Spark Streaming应用程序,而无需将其传递给每个节点。这样可以减少网络传输的开销,并提高应用程序的性能。 总结起来,动态广播变量Spark Streaming管理全局状态的一个强大工具。它可以实现在流数据处理过程对全局状态进行共享和更新,从而提高应用程序的性能和效率。 ### 回答3: Spark Streaming的动态广播变量是一种在Spark Streaming作业共享变量的机制。它可以用于将某个变量广播给所有的工作节点,这样每个节点都可以在本地访问该变量而不需要通过网络传输。动态广播变量在一些需要频繁更新的场景特别有用。 在Spark Streaming,要使用动态广播变量,需要首先创建一个Broadcast变量,并通过前端驱动程序将其广播到所有工作节点。然后,在每个工作节点的任务,可以直接引用该变量而不需要序列化和传输。 动态广播变量的使用步骤如下: 1. 在Spark Streaming应用程序的驱动程序,通过创建一个共享的变量Broadcast来定义需要广播变量。 2. 使用Spark Streaming的dstream.foreachRDD方法迭代每一个RDD。 3. 在每一个RDD的foreachPartition方法内,通过调用Broadcast.value方法访问广播变量。 这样,每个工作节点都可以在本地获取广播变量,而无需将变量从驱动程序传输到工作节点。 动态广播变量Spark Streaming的应用场景非常广泛,例如在进行实时机器学习或实时数据分析时,可以使用动态广播变量来保存模型参数或预定义的规则等,以便在每个工作节点上进行使用,提高计算的效率和性能。 总的来说,Spark Streaming动态广播变量的使用可以帮助我们在作业共享变量,并且在处理实时数据时提高作业的效率和性能。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值