底层HDFS,上面跑MapReduce/Tez/Spark,在上面跑Hive,Pig。或者HDFS上直接跑Impala,Drill,Presto。这解决了中低速数据处理的要求。
下方是hadoop子项目
大数据是 传统 数据获取(爬虫)+分析+处理(商业智能)+预测+判断(机器学习)
加上大而全的数据
加上大而全的数据
转载:http://www.zhihu.com/question/27974418
著作权归作者所有。
商业转载请联系作者获得授权,非商业转载请注明出处。
作者:Xiaoyu Ma
链接:http://www.zhihu.com/question/27974418/answer/38965760
来源:知乎
著作权归作者所有。
商业转载请联系作者获得授权,非商业转载请注明出处。
作者:wang z
链接:https://www.zhihu.com/question/29956220/answer/46344887
来源:知乎
著作权归作者所有。
商业转载请联系作者获得授权,非商业转载请注明出处。
作者:wang z
链接:https://www.zhihu.com/question/29956220/answer/46344887
来源:知乎
商业转载请联系作者获得授权,非商业转载请注明出处。
作者:wang z
链接:https://www.zhihu.com/question/29956220/answer/46344887
来源:知乎