Spark部分累加求和的理解学习(原理+图解+代码)

 一.图解

二.原理

将executor端的数据计算之后,最后返回到driver端。

一般是累加数字,也可以累加String类型,但是需要自定义。

注意:累加器只能在driver端定义,初始化,在executor端更新使用,在executor端获取值。

在executor中不能accumulator.value()获取值,而要直接用accumulator获取。

在driver端获取值的时候,不能直接用accumulator,而是要用用accumulator.value获取的,这一点和executor端有区别。

三.代码 实现

package com.bjsxt

import org.apache.spark.SparkConf
import org.apache.spark.SparkContext

object Scala {
  def main(args: Array[String]): Unit = {
    /**
     * 累加求和
     */
    val conf=new SparkConf().setAppName("test").setMaster("local")
    val sc=new SparkContext(conf)
    val rdd1=sc.textFile("./words")
    /**
     * 初始化
     * i=0
     * 常量的初始化用var
     */
    var i=0
    rdd1.map(line=>{
      /**
       * 这个i是在executor端去执行的
       * map 是一对一的
       * 是一遍一遍地去处理的
       */
      i+=1
      accumulator.add(1)
      println("Executor execuotr ="+accumulator)
      //在executor端获取值的时候,不能用accumulator.value,而是直接用accumulator获取的,这一点和driver端有区别。
      line
    }).collect()//此处的collect是为了触发执行,没有别的意思
    println("Driver executor ="+accumulator.value)
    //在driver端获取值的时候,不能直接用accumulator,而是要用用accumulator.value获取的,这一点和executor端有区别。
    //这个i是在driver端,不会进入Executor端去执行
    /**
     * 或者可以自定义累加求和(如下所示)
     */
    val accumulator=sc.accumulator(0)
    rdd1.map(lin=>{
      accumulator.add(1)
    }).collect()    
    println("Driver accumulator ="+accumulator.value)    
  }  
}

  • 2
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值