Spark core基础

Spark

RDD的五大特性

  1. RDD是由一系列的Partition组成的,如果Spark计算的数据是在HDFS上那么partition个数是与block数一致(大多数情况)
  2. RDD是有一系列的依赖关系,有利于Spark计算的容错
  3. RDD中每一个算子实际上是作用在每一个partition的
  4. spark中分区器是作用在kv格式的RDD上的,如果这个RDD中存储的数据是二元组类型的话
  5. spark中的RDD会提供一系列的最佳位子

大概执行流程

Driver

  1. 分发task,实际上在分发task之前会调用RDD的一个方法(能够获取每一个partition的位置)
  2. 会将每一个task的计算结果拉回到Dirver端---大数据处理!!每一个task计算结果有可能会非常的大,容易造成OMM,很危险
  3. 强调: Driver是一个JVM进程

Woker进程

算子

Transformation类算子

  1. 特点,懒执行!!需要一个action类算子触发
  2. 具体的算子 map,filter,reduceByKey,flatMap

Action类算子

  1. 特点:会立即触发任务的执行
  2. 具体的算子 foreach,count

转载于:https://my.oschina.net/u/3703858/blog/1931059

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值