spark总结(三)

spark总结(三):

多总结,养成好习惯


spark三大数据结构:

1、 RDD:弹性分布式数据集
2、 累加器:分布式共享只写变量
3、 广播变量:分布式共享只读变量

RDD特点:

1、RDD只是封装了计算逻辑,并不保存数据
2、可分区、并行计算;
3、分为转换算子和行动算子,只有到行动算子处才会真正触发执行
转换算子:如(map、flatmap、reduceByKey等等)
行动算子:如(collect、save等等)

spark总结:

1、算子意外的代码都是在Driver端执行,算子里面的代码都是在Executor端执行,所以需要传递的数据参数需要序列化。
2、RDD的血缘关系
RDD在进行转换操作的时候,不能记录数据,一旦发生错误,会根据血缘关系从新计算。
血缘就是“子 找 父, 父 找 祖父 等等”
3、RDD的“宽窄依赖”
窄依赖表示父RDD的Partition最多被子RDD的一个Partition使用;
宽依赖表示一个父RDD的Partition被多个子RDD的Partition依赖,及Shuffle操作;
4、RDD的Application、Job、Stage和Task关系:
Application:初始化一个SparkContext就会生成一个Application;
Job:一个行动算子就会生成一个Job
Stage:Stage等于宽依赖(shuffle)的个数加1;
Task:一个Stage阶段中,最后一个RDD的分区个数就是Task个数
注意:Application->Job->Stage->Task每一层都是1对n的关系
5、RDD持久化
因为转换算子是不存储数据的,也是懒加载,也就是遇到行动算子才会触发计算,所以假如转换过程中发生了错误,或者同一RDD被多个子RDD使用,这就只能从新计算
Rdd.cache():缓存级别分为内存和磁盘,或者两者兼并,存储于磁盘的只是临时文件,程序结束时文件清除
rdd.setCheckpointDir():会将中间的结果存储于文件系统中,可靠性高。
6、累加器(共享的写变量)
累加器用来对信息进行聚合,可以使用驱动器程序中定义的变量,但是集群中运行的每个任务都会得到这些变量的一份新的副本, 更新这些副本的值也不会影响驱动器中的对应变量,累加器就可以实现这块功能。
7、广播 (共享的读变量)
假如Driver端分发一份数据,数据不是广播变量,只能每一份task都copy一份,这会导致网络io和内存的消耗,如果为广播变量,则会分发给每个executor一份,这个executor下面的task都会共享这一份数据,大大节约了资源。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值