1、spark的特性
(1)运行速度快,速度是hadoop mapreduce的100倍以上。主要原因是因为基于内存计算和引入DAG执行引擎。(DAG就是对RDD依赖的描述)。
(2)易用性好,spark不仅支持scala编程,还支持java、R语言和python编写。
(3)通用性好,spack on yarn、spark on mesos和standalone(spark自身带的资源框架)
(4)随处运行
2、mapreduce和spark相比
1、spark的特性
(1)运行速度快,速度是hadoop mapreduce的100倍以上。主要原因是因为基于内存计算和引入DAG执行引擎。(DAG就是对RDD依赖的描述)。
(2)易用性好,spark不仅支持scala编程,还支持java、R语言和python编写。
(3)通用性好,spack on yarn、spark on mesos和standalone(spark自身带的资源框架)
(4)随处运行
2、mapreduce和spark相比