MapReduce原理过程详解

1 概述 

2 MapReduce体系结构 

3 MapReduce工作流程 

4 实例分析:WordCount 

5 MapReduce的具体应用

1.概述

在MapReduce出现之前,已经有像MPI这样非常成熟的并行计算框架了,那么为什么Google还需要MapReduce?MapReduce相较于传统的并行计算框架有什么优势?

 

传统并行计算框架

MapReduce

集群架构/容错性

共享式(共享内存/共享存储),容错性差

非共享式,容错性好

硬件/价格/扩展性

刀片服务器、高速网、SAN,价格贵,扩展性差

普通PC机,便宜,扩展性好

编程/学习难度

what-how,难

what,简单

适用场景

实时、细粒度计算、计算密集型

批处理、非实时、数据密集型

 

MapReduce将复杂的、运行于大规模集群上的并行计算过程高度地抽象到了两个函数:Map和Reduce 编程容易,不需要掌握分布式并行编程细节,也可以很容易把自己的程序运行在分布式系统上,完成海量数据的计算 。

MapReduce采用“分而治之”策略,一个存储在分布式文件系统中的大规模数据集,会被切分成许多独立的分片(split),这些分片可以被多个Map任务并行处理 MapReduce设计的一个理念就是“计算向数据靠拢”,而不是“数据向计算靠拢”,因为,移动数据需要大量的网络传输开销 MapReduce框架采用了Master/Slave架构,包括一个Master和若干个Slave。Master上运行JobTracker,Slave上运行TaskTracker Hadoop框架是用Java实现的,但是,MapReduce应用程序则不一定要用Java来写

Map和Reduce函数:

函数

输入

输出

说明

Map

<k1,v1>

如:

<行号,”a b c”>

List(<k2,v2>)

如:

<“a”,1>

<“b”,1>

<“c”,1>

1.将小数据集进一步解析成一批<key,value>对,输入Map函数中进行处理

2.每一个输入的<k1,v1>会输出一批<k2,v2>。<k2,v2>是计算的中间结果

Reduce

<k2,List(v2)>

如:<“a”,<1,1,1>>

<k3,v3>

<“a”,3>

输入的中间结果<k2,List(v2)>中的List(v2)表示是一批属于同一个k2的value

2 MapReduce体系结构 

MapReduce体系结构主要由四个部分组成,分别是:Client、JobTracker、TaskTracker以及Task

MapReduce主要有以下4个部分组成:

1)Client 用户编写的MapReduce程序通过Client提交到JobTracker端 用户可通过Client提供的一些接口查看作业运行状态

2)JobTracker JobTracker负责资源监控和作业调度 JobTracker 监控所有TaskTracker与Job的健康状况,一旦发现失败,就将相应的任务转移到其他节点 JobTracker 会跟踪任务的执行进度、资源使用量等信息,并将这些信息告诉任务调度器(TaskScheduler),而调度器会在资源出现空闲时,选择合适的任务去使用这些资源

3)TaskTracker TaskTracker 会周期性地通过“心跳”将本节点上资源的使用情况和任务的运行进度汇报给JobTracker,同时接收JobTracker 发送过来的命令并执行相应的操作(如启动新任务、杀死任务等) TaskTracker 使用“slot”等量划分本节点上的资源量(CPU、内存等)。一个Task 获取到一个slot 后才有机会运行,而Hadoop调度器的作用就是将各个TaskTracker上的空闲slot分配给Task使用slot 分为Map slot 和Reduce slot 两种,分别供MapTask 和Reduce Task 使用

4)Task Task 分为Map Task 和Reduce Task 两种,均由TaskTracker 启动

3 MapReduce工作流程 

  1. 不同的Map任务之间不会进行通信
  2. 不同的Reduce任务之间也不会发生任何信息交换
  3. 用户不能显式地从一台机器向另一台机器发送消息
  4. 所有的数据交换都是通过MapReduce框架自身去实现的

MapReduce各个执行阶段:

关于Split(分片):

HDFS 以固定大小的block 为基本单位存储数据而对于MapReduce 而言,其处理单位是split。split 是一个逻辑概念,它只包含一些元数据信息,比如数据起始位置、数据长度、数据所在节点等。它的划分方法完全由用户自己决定。

Map任务的数量:Hadoop为每个split创建一个Map任务,split 的多少决定了Map任务的数目。大多数情况下,理想的分片大小是一个HDFS块

Reduce任务的数量:最优的Reduce任务个数取决于集群中可用的reduce任务槽(slot)的数目 通常设置比reduce任务槽数目稍微小一些的Reduce任务个数(这样可以预留一些系统资源处理可能发生的错误)

Shuffle过程详解:

Map端的shuffle:

合并(Combine)和归并(Merge)的区别: 两个键值对<“a”,1>和<“a”,1>,如果合并,会得到<“a”,2>,如果归并,会得到<“a”,<1,1>>

shuffle过程为归并,其实合并(Combine)就是帮助reduce过程处理了一些数据

reduce端的shuffle:

  1. Reduce任务通过RPC向JobTracker询问Map任务是否已经完成,若完成,则领取数据
  2. Reduce领取数据先放入缓存,来自不同Map机器,先归并,再合并,写入磁盘
  3. 多个溢写文件归并成一个或多个大文件,文件中的键值对是排序的
  4. 当数据很少时,不需要溢写到磁盘,直接在缓存中归并,然后输出给Reduce

MapReduce应用程序执行过程:

话不多说,上图

 

4 实例分析:WordCount 

一个WordCount的输入和输出实例:

输入

输出

Hello World

Hello Hadoop

Hello MapReduce

Hadoop 1

Hello 3

MapReduce 1

World 1

 

首先,需要检查WordCount程序任务是否可以采用MapReduce来实现

其次,确定MapReduce程序的设计思路

最后,确定MapReduce程序的执行过程

Map过程:(Map输入的key下文有解释)

用户没有定义Combiner时的Reduce过程示意图 :

用户有定义Combiner时的Reduce过程示意图:

5 MapReduce的具体应用

MapReduce可以很好地应用于各种计算问题 :

  1. 关系代数运算(选择、投影、并、交、差、连接)
  2. 分组与聚合运算
  3. 矩阵-向量乘法
  4. 矩阵乘法

用MapReduce实现关系的自然连接:

假设有关系R(A,B)和S(B,C),对二者进行自然连接操作

使用Map过程,把来自R的每个元组<a,b>转换成一个键值对<b, <R,a>>,其中的键就是属性B的值。把关系R包含到值中,这样做使得我们可以在Reduce阶段,只把那些来自R的元组和来自S的元组进行匹配。类似地,使用Map过程,把来自S的每个元组<b,c>,转换成一个键值对<b,<S,c>> 所有具有相同B值的元组被发送到同一个Reduce进程中.

Reduce进程的任务是,把来自关系R和S的、具有相同属性B值的元组进行合并 Reduce进程的输出则是连接后的元组<a,b,c>,输出被写到一个单独的输出文件中

 

 

最后,上一段统计单词的mapreduce代码吧,当然很是简单助于理解就好

public class WordCount{  
	        public static class MyMapper extends Mapper<Object,Text,Text,IntWritable>{  
	                private final static IntWritable one = new IntWritable(1);  
	                private Text word = new Text();  
	                public void map(Object key, Text value, Context context) throws IOException,InterruptedException{  
	                        StringTokenizer itr = new StringTokenizer(value.toString());  
	                        while (itr.hasMoreTokens()){  
	                                word.set(itr.nextToken());  
	                                context.write(word,one);  
	                        }  
	                }  
	        }  	  
//map参数key是split切开之后自动生成的,StringTokenizer处理空格隔开的字符串
	        public static class MyReducer extends Reducer<Text,IntWritable,Text,IntWritable>{  
	                private IntWritable result = new IntWritable();  
	                public void reduce(Text key, Iterable<IntWritable> values, Context context) throws IOException,InterruptedException{  
	                        int sum = 0;  
	                        for (IntWritable val : values)  
	                        {  
	                                sum += val.get();  
	                        }  
	                        result.set(sum);  
	                        context.write(key,result);  
	                }  
	        }  
	        public static void main(String[] args) throws Exception{  
	                Configuration conf = new Configuration();  
	                String[] otherArgs = new GenericOptionsParser(conf,args).getRemainingArgs();  
	                if (otherArgs.length != 2)  
	                {  
	                        System.err.println("Usage: wordcount <in> <out>");  
	                        System.exit(2);  
	                }  
	                Job job = new Job(conf,"word count");  
	                job.setJarByClass(WordCount.class);  
	                job.setMapperClass(MyMapper.class);  
	                job.setReducerClass(MyReducer.class);  
	                job.setOutputKeyClass(Text.class);  
	                job.setOutputValueClass(IntWritable.class);  
//一般情况下reduce输入键值对和输出键值对是一样的,这里setOutput是设置的reduce的输出,map的输出默认和reduce一样(map的输出就是reduce的输入。。。),如果不一样要显示设置map的输出键值对
	                FileInputFormat.addInputPath(job,new Path(otherArgs[0]));  
	                FileOutputFormat.setOutputPath(job,new Path(otherArgs[1]));  
	                System.exit(job.waitForCompletion(true)?0:1);  
	        }  
}  

 

  • 1
    点赞
  • 17
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值