Spark计算模型

一 Spark程序示例
数据处理流水线:
val file=sc.textFile("hdfs://XXX")          //1 输入与构造RDD
val errors=file.filter(line=>line.contains("ERROR"))           //2 转换Transformation
errors.count()       //输出Action
归纳为:数据结构RDD+算法(两类RDD函数支撑)

二 属性
1 partition:A list of partions
2 computer:A function for computing each split
3 dependencies:A list of dependencies on other RDDS
4 patitioner
5 preferedLocations:Optianlly,a list of preferred locations to compute each split on(e.g. block locations for HDFS file)

三 RDD两类基础函数
1 转换(Transformations)
Transformations操作是延迟计算的。
map(func):对调用map的RDD数据集中的每一个element都使用func,然后返回一个新的RDD,这个返回数据集是分布式的数据集。
filter(func):对调用filter的RDD数据集中的每个元素都使用func,然后返回一个包含使func为true的元素构成的RDD
reduceBykey(func,[numTasks]):就是用一个给定的reduce func再作用在groupByKey产生的(K,seq[V]),比如求和,求平均数
2 行动(Actions)
Action算子会触发Spark提交作业(Job),并将数据输出Spark系统。
reduce(func):说白了就是聚集,但是传入的函数是两个参数输入返回一个值,这个函数必须是满足交换律和结合律的、
collect():一般在filter或者足够小的结果的时候,再用collect封装返回一个数组。
count():返回的是dataset中的element的个数
first():返回的是dataset中的第一个元素
take(n):返回前n个elements,这个是driver program返回的
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值