Spark_7 SparkCore共享变量

共享变量的概述

Spark 一个非常重要的特性就是共享变量。
默认情况下,如果在一个算子的函数中使用到了某个外部的变量,那么这个变量的值会被拷贝到每个 task 中,此时每个 task 只能操作自己的那份变量副本。如果多个 task 想要共享某个变量,那么这种方式是做不到的。
Spark 为此提供了两种共享变量,一种是 Broadcast Variable( 广播变量),另一种是 Accumulator( 累加变量)。 Broadcast Variable 会将用到的变量, 仅仅为每个节点拷贝一份, 即每个 Executor 拷贝一份, 更大的用途是优化性能,减少网络传输以及内存损耗。 Accumulator 则可以让多个 task 共同操作一份变量,主要可以进行累加操作。 Broadcast Variable 是共享读变量, task 不能去修改它,而 Accumulator 可以让多个 task 操作一个变量。

广播变量

广播变量概述及底层分析

广播变量允许编程者在每个 Executor 上保留外部数据的只读变量,而不是给每个任务发送一个副本。
在没有使用广播变量时,每个 task 都会保存一份它所使用的外部变量的副本, 当一个 Executor 上的多个task 都使用一个大型外部变量时, 对于 Executor 内存的消耗是非常大的。因此, 我们可以将大型外部变量封装为广播变量, 此时一个 Executor 保存一个变量副本,此Executor 上的所有 task 共用此变量, 不再是一个 task 单独保存一个副本, 这在一定程度上降低了 Spark 任务的内存占用。
Spark 还尝试使用高效的广播算法分发广播变量,以降低通信成本。
Spark 提供的 Broadcast Variable 是只读的,并且在每个 Executor 上只会有一个副本,而不会为每个 task 都拷贝一份副本,因此, 它的最大作用,就是减少变量到各个节点的网络传输消耗,以及在各个节点上的内存消耗。此外, Spark 内部也使用了高效的广播算法来减少网络消耗。
可以通过调用 SparkContext 的 broadcast()方法来针对每个变量创建广播变量。然后在算子的函数内,使用到广播变量时,每个 Executor 只会拷贝一份副本了,每个 task 可以使用广播变量的 value()方法获取值。
在任务运行时, Executor 并不获取广播变量,当 task 执行到使用广播变量的代码时,会向 Executor 的内存中请求广播变量;之后 Executor 会通过 BlockManager 向 Driver 拉取广播变量,然后提供给 task进行使用。
广播大变量是 Spark 中常用的基础优化方法, 通过减少内存占用实现任务执行性能的提升。

广播变量的使用

广播变量用来高效分发较大的对象。向所有工作节点发送一个较大的只读值,以供一个或多个 Spark 操作使用。比如,如果你的应用需要向所有节点发送一个较大的只读查询表,甚至是机器学习算法中的一个很大的特征向量,广播变量用起来都很顺手。 在多个并行操作中使用同一个变量,但是 Spark 会为每个任务分别发送。

scala> val broadcastVar = sc.broadcast(Array(1, 2, 3))
broadcastVar: org.apache.spark.broadcast.Broadcast[Array[Int]] = Broadcast(35)

scala> broadcastVar.value
res33: Array[Int] = Array(1, 2, 3)

使用广播变量的过程如下:
(1) 通过对一个类型 T 的对象调用 SparkContext.broadcast 创建出一个 Broadcast[T]对象。任何可序列化的类型都可以这么实现。
(2) 通过 value 属性访问该对象的值(在 Java 中为 value()方法)。
(3) 变量只会被发到各个节点一次,应作为只读值处理(修改这个值不会影响到别的节点)。

广播变量应用场景举例

Join的实现

//Join:commonJoin,BroadcastJoin()
import org.apache.spark.{SparkConf, SparkContext}

/**
  * @author Gru
  * @create 2019-07-15-13:09
  */
object BroadCastApp {
  def main(args: Array[String]): Unit = {
    val sparkConf = new SparkConf().setAppName("BroadCastApp").setMaster("local[2]")
    val sc= new SparkContext(sparkConf)

    broadCastJoin(sc)
    Thread.sleep(20000)
    sc.stop()
  }
  def commonJoin(sc: SparkContext) = {
    val info1 = sc.parallelize(Array(("01","张三"),("02","李四")))
    val info2 = sc.parallelize(Array(("01","清华","20"),
                  ("03","北大","21"),("04","清华","25"))).map(x=>(x._1,x))
    info1.join(info2).foreachPartition(print)
  }

  /**
    * @param sc
    *       broadCastJoin也就是mapJoin
    *
    */
  def broadCastJoin(sc:SparkContext)={
    /**
      * 适用于有一份数据较小的连接情况
      * 做法是直接把该小份数据直接全部加载到内存当中
      * 按链接关键字建立索引。然后大份数据就作为 MapTask 的输入
      * 对 map()方法的每次输入都去内存当中直接去匹配连接
      * 然后把连接结果按 key 输出
      * 这种方法要使用 hadoop中的 DistributedCache 把小份数据分布到各个计算节点
      * 每个 maptask 执行任务的节点都需要加载该数据到内存,并且按连接关键字建立索引
      */
      // 将info1作为小表传播出去;广播是要先到driver端的,所以要collect;Map好操作
    val info1 = sc.parallelize(Array(("01","张三"),("02","李四"))).collectAsMap()
    val info1Broadcast=sc.broadcast(info1)
    //broadcast出去之后就不会再用join来实现
    // 大表的数据读取出来一条就和广播出去的小表的记录做匹配
    // 这种情况不会产生shuffle,性能更好,但是小表数据不能太多
    val info2 = sc.parallelize(Array(("01","清华","20"),
                  ("03","北大","21"),("04","清华","25"))).map(x=>(x._1,x))
    info2.mapPartitions(x=>{
      val BroadCastMap = info1Broadcast.value
      for((key,value)<-x if(BroadCastMap.contains(key)))
        yield (key,BroadCastMap.get(key).getOrElse(""),value._2)
    }).foreach(println)
  }

}

累加器

累加器概述

累加器用来对信息进行聚合,通常在向 Spark 传递函数时,比如使用 map() 函数或者用 filter() 传条件时,可以使用driver中定义的变量,但是集群中运行的每个任务都会得到这些变量的一份新的副本,更新这些副本的值也不会影响driver中的对应变量。 如果我们想实现所有分片处理时更新共享变量的功能,那么累加器可以实现我们想要的效果。
累加器( accumulator): Accumulator 是仅仅被相关操作累加的变量,因此可以在并行中被有效地支持。它们可用于实现计数器(如 MapReduce)或总和计数。
Accumulator 是存在于 Driver 端的, 集群上运行的 task 进行 Accumulator 的累加,随后把值发到 Driver 端,在 Driver 端汇总( Spark UI 在 SparkContext 创建时被创建,即在 Driver 端被创建,因此它可以读取 Accumulator 的数值), 由于 Accumulator存在于 Driver 端,从节点读取不到 Accumulator 的数值。
Spark 提供的 Accumulator 主要用于多个节点对一个变量进行共享性的操作。
Accumulator 只提供了累加的功能,但是却给我们提供了多个 task 对于同一个变量并行操作的功能,但是 task 只能对 Accumulator 进行累加操作,不能读取它的值,只有 Driver 程序可以读取 Accumulator 的值。
Accumulator的底层原理如图:
在这里插入图片描述

累加器的使用

累加器分为系统累加器和自定义的累加器

系统累加器

通过在驱动器中调用 SparkContext.accumulator(initialValue)方法,创建出存有初始值的累加器。返回值为 org.apache.spark.Accumulator[T] 对象,其中 T 是初始值 initialValue 的类型。 Spark 闭包里的执行器代码可以使用累加器的 += 方法(在 Java 中是 add)增加累加器的值。 驱动器程序可以调用累加器的 value 属性(在 Java 中使用 value()或 setValue())来访问累加器的值。
注意: 工作节点上的任务不能访问累加器的值。从这些任务的角度来看,累加器是一个只写变量。
对于要在行动操作中使用的累加器, Spark 只会把每个任务对各累加器的修改应用一次。因此,如果想要一个无论在失败还是重复计算时都绝对可靠的累加器,我们必须把它放在foreach() 这样的行动操作中。转化操作中累加器可能会发生不止一次更新。
针对一个输入的日志文件,如果我们想计算文件中所有空行的数量,我们可以编写以下程序:

scala> val notice = sc.textFile("./NOTICE")
notice: org.apache.spark.rdd.RDD[String] = ./NOTICE MapPartitionsRDD[40] at textFile at
<console>:32

scala> val blanklines = sc.accumulator(0)
warning: there were two deprecation warnings; re-run with -deprecation for details
blanklines: org.apache.spark.Accumulator[Int] = 0

scala> val tmp = notice.flatMap(line => {
| if (line == "") {
| blanklines += 1
| }
| line.split(" ")
| })
tmp: org.apache.spark.rdd.RDD[String] = MapPartitionsRDD[41] at flatMap at <console>:36

scala> tmp.count()
res31: Long = 3213

scala> blanklines.value
res32: Int = 171

自定义累加器

自定义累加器类型的功能在 1.X 版本中就已经提供了,但是使用起来比较麻烦,在 2.0版本后,累加器的易用性有了较大的改进,而且官方还提供了一个新的抽象类:AccumulatorV2 来提供更加友好的自定义类型累加器的实现方式。实现自定义类型累加器需要继承 AccumulatorV2 并至少覆写下例中出现的方法,下面这个累加器可以用于在程序运行过程中收集一些文本类信息,最终以 Set[String]的形式返回。

import org.apache.spark.util.AccumulatorV2
import org.apache.spark.{SparkConf, SparkContext}
import scala.collection.JavaConversions._

class LogAccumulator extends org.apache.spark.util.AccumulatorV2[String, java.util.Set[String]]
{
	private val _logArray: java.util.Set[String] = new java.util.HashSet[String]()
	
	override def isZero: Boolean = {
		_logArray.isEmpty
	}
	override def reset(): Unit = {
		_logArray.clear()
	}
	override def add(v: String): Unit = {
		_logArray.add(v)
	}
	override def merge(other: org.apache.spark.util.AccumulatorV2[String, java.util.Set[String]]):
	Unit = {
		other match {
			case o: LogAccumulator => _logArray.addAll(o.value)
		}
	}
	override def value: java.util.Set[String] = {
		java.util.Collections.unmodifiableSet(_logArray)
	}
	override def copy():org.apache.spark.util.AccumulatorV2[String, java.util.Set[String]] = {
		val newAcc = new LogAccumulator()
		_logArray.synchronized{
			newAcc._logArray.addAll(_logArray)
		}
	newAcc
	}
}
// 过滤掉带字母的
object LogAccumulator {
	def main(args: Array[String]) {
	val conf=new SparkConf().setAppName("LogAccumulator")
	val sc=new SparkContext(conf)
	val accum = new LogAccumulator
	sc.register(accum, "logAccum")
	val sum = sc.parallelize(Array("1", "2a", "3", "4b", "5", "6", "7cd", "8", "9"), 2).filter(line =>
	{
		val pattern = """^-?(\d+)"""
		val flag = line.matches(pattern)
		if (!flag) {
		accum.add(line)
	}
	flag
	}).map(_.toInt).reduce(_ + _)
	println("sum: " + sum)
	for (v <- accum.value) print(v + "")
	println()
	sc.stop()
	}
}
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
数字乡村和智慧农业的数字化转型是当前农业发展的新趋势,旨在通过应用数字技术,实现农业全流程的再造和全生命周期的管理服务。中国政府高度重视这一领域的发展,提出“数字中国”和“乡村振兴”战略,以提升国家治理能力,推动城乡融合发展。 数字乡村的建设面临乡村治理、基础设施、产业链条和公共服务等方面的问题,需要分阶段实施《数字乡村发展战略纲要》来解决。农业数字化转型的需求包括满足市民对优质农产品的需求、解决产销对接问题、形成优质优价机制、提高农业劳动力素质、打破信息孤岛、提高农业政策服务的精准度和有效性,以及解决农业融资难的问题。 数字乡村建设的关键在于构建“1+3+4+1”工程,即以新技术、新要素、新商业、新农民、新文化、新农村为核心,推进数据融合,强化农业大数据的汇集功能。数字农业大数据解决方案以农业数字底图和数据资源为基础,通过可视化监管,实现区域农业的全面数字化管理。 数字农业大数据架构基于大数据、区块链、GIS和物联网技术,构建农业大数据中心、农业物联网平台和农村综合服务指挥决策平台三大基础平台。农业大数据中心汇聚各类涉农信息资源和业务数据,支持大数据应用。信息采集系统覆盖市、县、乡、村多级,形成高效的农业大数据信息采集体系。 农业物联网平台包括环境监测系统、视频监控系统、预警预报系统和智能控制系统,通过收集和监测数据,实现对农业环境和生产过程的智能化管理。综合服务指挥决策平台利用数据分析和GIS技术,为农业决策提供支持。 数字乡村建设包括三大服务平台:治理服务平台、民生服务平台和产业服务平台。治理服务平台通过大数据和AI技术,实现乡村治理的数字化;民生服务平台利用互联网技术,提供各类民生服务;产业服务平台融合政企关系,支持农业产业发展。 数字乡村的应用场景广泛,包括农业生产过程、农产品流通、农业管理和农村社会服务。农业生产管理系统利用AIoT技术,实现农业生产的标准化和智能化。农产品智慧流通管理系统和溯源管理系统提高流通效率和产品追溯能力。智慧农业管理通过互联网+农业,提升农业管理的科学性和效率。农村社会服务则通过数字化手段,提高农村地区的公共服务水平。 总体而言,数字乡村和智慧农业的建设,不仅能够提升农业生产效率和管理水平,还能够促进农村地区的社会经济发展,实现城乡融合发展,是推动中国农业现代化的重要途径。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值