- 博客(1)
- 收藏
- 关注
原创 Spark笔记(1)-Spark初体验
最近在实习,公司用的Spark,需要学习一下,废话少说,开始学习旅程。 说到Spark,不得不提一下MapReduce,众所周知,Spark的出现,正是用来替代原来的MapReduce计算框架,对于传统的MapReduce来说,存在许多局限性: 1. 只支持Map和Reduce两种操作,编程不够灵活 2. 处理效率低:map中间结果写入磁盘,reduce写HDFS,多个MR间通过HD
2016-12-03 20:42:11 444
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人