MapReduce详解

1.MapReduce框架

一个完整的mapreduce程序在分布式运行时有三类实例进程:

  • 1、MRAppMaster:负责整个程序的过程调度及状态协调
  • 2、mapTask:负责map阶段的整个数据处理流程
  • 3、ReduceTask:负责reduce阶段的整个数据处理流程
运行流程:

一个MR程序启动的时候,最先启动的是MRAppMaster,MRAppMaster启动后根据本次job的描述信息,计算出需要的maptask实例数量,然后向集群申请机器启动相应数量的maptask进程。maptask进程启动之后,根据给定的数据切片范围进行数据处理,主体流程为:

  • a) 利用客户指定的inputformat来获取RecordReader读取数据,形成输入(K,V)对
  • b) 将输入(K,V)对传递给客户端定义的map()方法,做逻辑运算,并将map()方法输出的(K,V)对收集到缓存
  • c) 将缓存中的(K,V)对按照K分区排序后不断溢写到磁盘文件

MRAppMaster监控到所有maptask进程任务完成之后,会根据客户端指定的参数启动相应数量的reducetask进程,并告知reducetask进程要处理的数据范围(数据分区)。Reducetask进程启动之后,根据MRAppMaster告知的待处理数据所在位置,从若干台maptask运行所在机器上获取到若干个maptask输出结果文件,并在本地进行重新归并排序,然后按照相同key的(K,V)为一个组,调用客户定义的reduce()方法进行逻辑运算,并收集运算输出的结果(K,V),然后调用客户指定的outputformat将结果数据输出到外部存储。

MapTask并行度的决定

job的map阶段并行度由客户端在提交job时决定。客户端对并行度的规划基本逻辑为:每个逻辑切片一个mapTask。

  • 如果job的每个map或者 reduce task的运行时间都只有30-40秒钟,那么就减少该job的map或者reduce数,每一个task(map|reduce)的setup和加入到调度器中进行调度,这个中间的过程可能都要花费几秒钟,所以如果每个task都非常快就跑完了,就会在task的开始和结束的时候浪费太多的时间。(配置task的JVM重用可以改善该问题)(mapred.job.reuse.jvm.num.tasks,默认是1,表示一个JVM上最多可以顺序执行的task数目(属于同一个Job)是1。也就是说一个task启一个JVM)
  • 如果input的文件非常的大,比如1TB,可以考虑将hdfs上的每个block size设大,比如设成256MB或者512MB
FileInputFormat切片机制:

切片定义在InputFormat类中的getSplit()方法。
默认按照文件长度等长划分,大小为block大小,切片时不考虑整体数据,而是针对每个文件单独切片。

ReduceTask并行度的决定:

Reducetask数量的决定是可以直接手动设置。
//默认值是1,手动设置为3
job.setNumReduceTasks(3)
如果数据分布不均匀,就有可能在reduce阶段产生数据倾斜
注意: reducetask数量并不是任意设置,还要考虑业务逻辑需求,有些情况下,需要计算全局汇总结果,就只能有1个reducetask。尽量不要运行太多的reduce task。对大多数job来说,最好rduce的个数最多和集群中的reduce持平,或者比集群的 reduce slots小。这个对于小集群而言,尤其重要。

2.MAPREDUCE程序运行模式

1)本地运行
  • mapreduce程序是被提交给LocalJobRunner在本地以单进程的形式运行
  • 怎样实现本地运行?写一个程序,不要带集群的配置文件(本质是你的mr程序的conf中是否有mapreduce.framework.name=local以及yarn.resourcemanager.hostname参数)
  • 本地模式非常便于进行业务逻辑的debug,只要在eclipse中打断点即可

如果在windows下想运行本地模式来测试程序逻辑,需要在windows中配置环境变量:
%HADOOP_HOME% = d:/hadoop-3.1.2
%PATH% = %HADOOP_HOME%\bin
并且要将d:/hadoop-3.1.2的lib和bin目录替换成windows平台编译的版本

2) 集群运行模式
  • 将mapreduce程序提交给yarn集群resourcemanager,分发到很多的节点上并发执行
  • 处理的数据和输出结果应该位于hdfs文件系统
  • 提交集群的实现步骤:
    A、将程序打成JAR包,然后在集群的任意一个节点上用hadoop命令启动
    $ hadoop jar ***.jar 客户端主类的路径 输入路径 输出路径
    B、直接在linux的eclipse中运行main方法
    (项目中要带参数:mapreduce.framework.name=yarn以及yarn的两个基本配置)
    C、如果要在windows的eclipse中提交job给集群,则要修改YarnRunner类

3. MapReduce中的Combiner

  • combiner是MR程序中Mapper和Reducer之外的一种组件
  • combiner组件的父类就是Reducer
  • combiner和reducer的区别在于运行的位置:(1)Combiner是在每一个maptask所在的节点运行。(2)Reducer是接收全局所有Mapper的输出结果;
  • combiner的意义就是对每一个maptask的输出进行局部汇总,以减小网络传输量
    具体实现步骤:
    1、 自定义一个combiner继承Reducer,重写reduce方法
    2、 在job中设置: job.setCombinerClass(CustomCombiner.class)
  • combiner能够应用的前提是不能影响最终的业务逻辑。而且,combiner的输出(K,V)应该跟reducer的输入(K,V)类型要对应起来。
  • Combiner的使用要非常谨慎
    因为combiner在mapreduce过程中可能调用也可能不调用,可能调一次也可能调多次。所以:combiner使用的原则是:有或没有都不能影响业务逻辑

4. shuffle机制

shuffle的作用是将maptask的结果分发给reduce,并且在分发的过程对数据按照key进行了分区和排序。

主要流程:

shuffle是MR处理流程中的一个过程,它的每一个处理步骤是分散在各个map task和reduce task节点上完成的,整体来看,分为3个操作:
1、分区partition
2、Sort根据key排序
3、Combiner进行局部value的合并

详细流程:

1、 maptask收集我们的map()方法输出的(K,V)对,放到内存缓冲区中。
2、 从内存缓冲区不断溢出本地磁盘文件,可能会溢出多个文件。
3、 多个溢出文件会被合并成大的溢出文件。
4、 在溢出过程中,及合并的过程中,都要调用partitoner进行分组和针对key进行排序
5、 reducetask根据自己的分区号,去各个maptask机器上取相应的结果。
6、 reducetask会取到同一个分区的来自不同maptask的结果文件,reducetask会将这些文件再进行合并(归并排序)
7、 合并成大文件后,shuffle的过程也就结束了,后面进入reducetask的逻辑运算过程(从文件中取出一个一个的键值对group,调用用户自定义的reduce()方法)

Shuffle中的缓冲区大小会影响到mapreduce程序的执行效率,原则上说,缓冲区越大,磁盘io的次数越少,执行速度就越快
缓冲区的大小可以通过参数调整, 参数:io.sort.mb 默认100M

5. MapReduce与YARN

Yarn概述

Yarn是一个资源调度平台,负责为运算程序提供服务器运算资源,相当于一个分布式的操作系统平台,而mapreduce等运算程序则相当于运行于操作系统之上的应用程序。

Yarn的重要概念

1、 yarn并不清楚用户提交的程序的运行机制
2、 yarn只提供运算资源的调度(用户程序向yarn申请资源,yarn就负责分配资源)
3、 yarn中的主管角色叫ResourceManager
4、 yarn中具体提供运算资源的角色叫NodeManager
5、 这样一来,yarn其实就与运行的用户程序完全解耦,就意味着yarn上可以运行各种类型的分布式运算程序(mapreduce只是其中的一种),比如mapreduce、storm程序,spark程序,tez ……
6、 所以,spark、storm等运算框架都可以整合在yarn上运行,只要他们各自的框架中有符合yarn规范的资源请求机制即可
7、 Yarn就成为一个通用的资源调度平台,从此,企业中以前存在的各种运算集群都可以整合在一个物理集群上,提高资源利用率,方便数据共享

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值