spark中的累加器和广播变量

     在spark程序中,当一个传递给Spark操作(例如map和reduce)的函数在远程节点上面运行时,Spark操作实际上操作的是这个函数所用变量的一个独立副本。这些变量会被复制到每台机器上,并且这些变量在远程机器上的所有更新都不会传递回驱动程序。通常跨任务的读写变量是低效的,但是,Spark还是为两种常见的使用模式提供了两种有限的共享变量:广播变(broadcast variable)和累加器(accumulator)。

一、广播变量

1).为什么要将变量定义成广播变量?

     如果我们要在分布式计算里面分发大对象,eg:字典,集合,黑白名单等,这个都会用driver端进行分发,一般来讲,如果这个变量不是广播变量,那么每个task就会分发一份,这在task数目十分多的情况下driver的带宽会成为系统的瓶颈,如果将这个变量声明为广播变量,那么知识每个executor拥有一份,这个executor启动的task会共享这个变量,节省了通信的成本。

补充: driver、executor、task 名词解析

2).如何定义一个广播变量?

val a = Array(1,2,3,4,5)

val b = sc.broadcast(a)

3).如何获取一个广播变量?

val c = b.value

4).定义广播变量需要的注意点?

     1、能不能将一个RDD使用广播变量广播出去?

            不能,因为RDD是不存储数据的。可以将RDD的结果广播出去。

     2、 广播变量只能在Driver端定义,不能在Executor端定义。

     3、 在Driver端可以修改广播变量的值,在Executor端无法修改广播变量的值。

     4、如果executor端用到了Driver的变量,如果不使用广播变量在Executor有多少task就有多少Driver端的变量副本。

     5、如果Executor端用到了Driver的变量,如果使用广播变量在每个Executor中只有一份Driver端的变量副本。

 

二、累加器

1).为什么要将一个变量定义为一个累加器?

     在spark应用程序中,我们经常会有这样的需求,如异常监控,调试,记录符合某特性的数据的数目,这种需求都需要用到计数器,如果一个变量不被声明为一个累加器,那么它将在被改变时不会再driver端进行全局汇总,即在分布式运行时每个task运行的知识原始变量的一个副本,并不能改变原始变量的值,但是当这个变量被声明为累加器后,该变量就会有分布式计数的功能。

2).如何定义一个累加器?

val a = sc.accumulator(0)

3).如何获取一个累加器?

val b = a.value

4).定义累加器注意事项

      累加器在Driver端定义赋初始值,累加器只能在Driver端读取最后的值,在Excutor端更新。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

sinat_36710456

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值