Hadoop mapreduce原理学习

本文详细介绍了Hadoop MapReduce的工作原理,重点解析了Shuffle和Sort阶段。Shuffle是MapReduce的核心,涉及数据的排序、分区和合并。Map阶段的数据首先在内存缓冲区进行预排序,溢出时写入磁盘并进行二次排序。Reduce阶段通过HTTP获取Map任务的输出,使用多个拷贝线程并行获取数据。数据经过归并排序后供Reduce函数处理。Map端的HTTP fetch与Reduce端的copy阶段是两个不同过程,分别负责数据传输和拷贝。
摘要由CSDN通过智能技术生成

        最近整了很长一段时间才了解了map reduce的工作原理,shuffle是mapreduce的心脏,了解了这个过程,有助于编写效率更高的mapreduce程序和hadoop调优。自己画了一幅流程图(点击查看全图):




另外,还找到一篇文章,很好,引用一下。

Hadoop

Apache 下的一个项目,由HDFSMapReduceHBaseHive ZooKeeper等成员组成。其中,HDFS MapReduce 是两个最基础最重要的成员。

HDFSGoogle GFS 的开源版本,一个高度容错的分布式文件系统,它能够提供高吞吐量的数据访问,适合存储海量(PB 级)的大文件(通常超过64M),其原理如下图所示:

 

采用Master/Slave 结构。NameNode 维护集群内的元数据,对外提供创建、打开、删除和重命名文件或目录的功能。DatanNode 

评论 18
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值