2018/08/29
最近准备看一本利用mapreduce来进行数据挖掘的书,想起了一个问题就是,
当前环境下,spark要比mapreduce快很多倍。
那么是不是说spark会替代mapreduce。
注意这个问题是替代mapreduce,而不是hadoop。
转载:https://blogs.informatica.com/2016/05/09/hadoop-mapreduce-to-apace-spark-data-storage-and-processing-strategy-transformation/#fbid=Y2axWhdHuGy
转载: https://www.dezyre.com/article/hadoop-mapreduce-vs-apache-spark-who-wins-the-battle/83
转载:https://www.scnsoft.com/blog/spark-vs-hadoop-mapreduce
我个人感觉,还是要看场景。
一个比较好的就是,数据量非常大的那种,这个时候的spark的内存优点就不存在了。但感觉也不绝对。
2018/09/23
转载:https://www.zhihu.com/question/26568496/answer/41608400
这个是知乎的一个答案,他主要是对比了这两个产品的一些优缺点。