对spark中RDD的理解

update at 2016.1.25

RDD作者的论文链接

https://www.cs.berkeley.edu/~matei/papers/2012/nsdi_spark.pdf


论文的理解:
spark要解决的问题:
1、有些数据要多次读写,磁盘速度很慢
2、没有交互的界面,不能看到中间结果
适用的应用:
1、机器学习:多个迭代次运算,逼近(优化问题)。==》是不是三维重建中优化也可以用到这个
2、计算结果还要用的:pagerank
解决办法==》数据抽象成RDD+memory-cache

其中提到finer- grained shared memory abstractions ,那么coarse又是什么呢
没看懂RDD是怎么实现的

继续学习






评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值