[scala-spark]1. Spark vs Hadoop 及 基础

1. Spark与Hadoop

2. MapReduce的基本计算过程

与之相对比的是Spark往往在一个内存的物理节点完成计算(主要用内存,Shuffle的时候也用到磁盘)。很多操作,比如说单纯的map操作,没有reduce操作;或者Filter类的操作,都可以基于内存进行计算。

MR的计算模型相比较,非常固定,而且死板。必须基于磁盘,以及大量的网络传输。

所以,spark的速度比MR、Hive(底层也是基于MR来执行SQL语句)快数十倍,甚至上百倍。

3. Spark整体架构

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值