Hadoop概念:Hadoop是一个由Apache基金会所开发的分布式系统基础架构。
Hadoop核心组件:Hadoop框架最核心的设计是HDFS和MapReduce。
Hadoop特点:Hadoop是一个能够对大量数据进行分布式处理的软件框架。
Hadoop 是可靠的,因为它假设计算元素和存储会失败,因此它维护多个工作数据 副本,确保能够针对失败的节点重新分布处理。
Hadoop 是高效的,因为它以并行的方式工作,通过并行处理加快处理速度。
Hadoop 还是可伸缩的,Hadoop是在可用的计算机集簇间分配数据并完成计算任务的,所以集群可以很容易进行节点的扩展,扩大集群。能够处理 PB 级数据。
此外,Hadoop 依赖于社区服务,因此它的成本比较低,任何人都可以使用。
Hadoop分布式文件系统(HDFS,Hadoop Distributed File System)
高度容错性的系统
上传的数据自动保存多个副本,适合部署在廉价的机器上。
适合大数据的处理
高吞吐量的数据访问,非常适合大规模数据集上的应用。
流式文件写入
一次写入,多次读取。文件一旦写入,不能修改,只能增加。这样可以保证数据的一致性。
hadoop并行计算框架--MapReduce
MapReduce是Google提出的一个软件架构,用于大规模数据集(大于1TB)的并行运算。概念“Map(映射)”和“Reduce(归纳)”,及他们的主要思想,都是从函数式编程语言借来的,还有从矢量编程语言借来的特性。 当前的软件实现是指定一个Map(映射)函数,用来把一组键值对映射成一组新的键值对,指定并发的Reduce(归纳)函数,用来保证所有映射的键值对中的每一个共享相同的键组。