自定义累加器实现wordcount

本文介绍了两种方式实现Spark中自定义累加器WordCount,重点讲解了累加和合并累加器的关键方法add及merge,适合对Spark累加器进行深入学习。
摘要由CSDN通过智能技术生成

第一种写法:

object Scala3_ACC {
   
  def main(args: Array[String]): Unit = {
   

    val sparkConf: SparkConf = new SparkConf().setMaster("local[*]").setAppName("acc")
    val sc = new SparkContext(sparkConf)

    val rdd= sc.makeRDD(List("spark hadoop", "scala", "java hello scala"))

    //1. 创建累加器
    val acc = new WordCountAccumulator

    //2. 注册累加器
    sc.register(acc)

    //3. 调用累加器
    rdd.flatMap(_.split(" ")).foreach(
      word => acc.add(word)
    )

    //4. 获取累加器的值
    println(acc.value)

    sc.stop()
    
  }
  //自定义累加器
  class WordCountAccumulator extends AccumulatorV2[String, mutable.Map[String, Int]] {
   
    private var wordCountMap: mutable.Map[String, Int] = mutable.Map[String, Int]()
    //方法1:判断当前的累加器是否初始化
    override def isZero: Boolean = {
   
      wordCountMap.isEmpty
    }
    //方法2:复制一个累加器
    override def copy(): AccumulatorV2[String, mutable.Map[String, Int]] = {
   
      new WordCountAccumulator
    }
    //方法3:重置累加器
    override def reset(): Unit = {
   
      wordCountMap.clear()
    }
   //-**方法4:向累加器中增加值**(主要的方法之一)
    override def add(word: String): Unit = {
   
      wordCountMap(word) = wordCountMap.getOrElse(word, 0) + 1

    }
    //**方法5:合并当前累加器和其他累加器,两两合并,此方法由Driver端调用,合并由executor返回的多个累加器**主要的方法之一
    override def merge(other: AccumulatorV2[String, mutable.Map[String, Int]]): Unit = {
   
      val map1 = wordCountMap
      val map2 = other.value

      wordCountMap = map1.foldLeft(map2)((map, kv) => {
   
        map(kv._1) = map.getOrElse
  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值