Spark—累加器

本文介绍了Spark-core中的累加器,详细阐述了累加器的实现原理,包括如何将Executor端的变量聚合到Driver端,并分别讨论了系统内置的累加器和如何自定义累加器,为大数据处理提供了便利。
摘要由CSDN通过智能技术生成

Spark-core篇—累加器

1. 实现原理

  • 累加器用来把 Executor 端变量信息聚合到 Driver 端。在 Driver 程序中定义的变量,在Executor 端的每个 Task 都会得到这个变量的一份新的副本,每个 task 更新这些副本的值后,传回 Driver 端进行 merge。

2. 系统累加器

package Acc

import org.apache.spark.rdd.RDD
import org.apache.spark.{
   SparkConf, SparkContext}

object Spark02_Acc {
   
  def main(args: Array[String]): Unit = {
   
    val conf: SparkConf = new SparkConf().setAppName("Acc").setMaster("local[*]")
    val sc: SparkContext = new SparkContext(conf)

    val rdd: RDD[Int] = sc.makeRDD(List(1, 2, 3, 4))
    // 获取系统累加器,Spark默认就提供了简单数据聚合的累加器
    // 声明累加器
    var sumAcc = sc.longAccumulator("sum"); //用的是可变变量
    // 累加器的类型有整型longAccumulator、浮点类型doubleAccumulator、

    rdd.<
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值