1.MapReduce框架
一个完整的mapreduce程序在分布式运行时有三类实例进程:
- 1、MRAppMaster:负责整个程序的过程调度及状态协调
- 2、mapTask:负责map阶段的整个数据处理流程
- 3、ReduceTask:负责reduce阶段的整个数据处理流程
运行流程:
一个MR程序启动的时候,最先启动的是MRAppMaster,MRAppMaster启动后根据本次job的描述信息,计算出需要的maptask实例数量,然后向集群申请机器启动相应数量的maptask进程。maptask进程启动之后,根据给定的数据切片范围进行数据处理,主体流程为:
- a) 利用客户指定的inputformat来获取RecordReader读取数据,形成输入(K,V)对
- b) 将输入(K,V)对传递给客户端定义的map()方法,做逻辑运算,并将map()方法输出的(K,V)对收集到缓存
- c) 将缓存中的(K,V)对按照K分区排序后不断溢写到磁盘文件
MRAppMaster监控到所有maptask进程任务完成之后,会根据客户端指定的参数启动相应数量的reducetask进程,并告知reducetask进程要处理的数据范围(数据分区)。Reducetask进程启动之后,根据MRAppMaster告知的待处理数据所在位置,从若干台maptask运行所在机器上获取到若干个maptask输出结果文件,并在本地进行重新归并排序,然后按照相同key的(K,V)为一个组,调用客户定义的reduce()方法进行逻辑运算,并收集运算输出的结果(K,V),然后调用客户指定的outputformat将结果数据输出到外部存储。
MapTask并行度的决定
job的map阶段并行度由客户端在提交job时决定。客户端对并行度的规划基本逻辑为:每个逻辑切片一个mapTask。
- 如果job的每个map或者 reduce task的运行时间都只有30-40秒钟,那么就减少该job的map或者reduce数,每一个task(map|reduce)的setup和加入到调度器中进行调度,这个中间的过程可能都要花费几秒钟,所以如果每个task都非常快就跑完了,就会在task的开始和结束的时候浪费太多的时间。(配置task的JVM重用可以改善该问题)(mapred.job.reuse.jvm.num.tasks,默认是1,表示一个JVM上最多可以顺序执行的task数目(属于同一个Job)是1。也就是说一个task启一个JVM)
- 如果input的文件非常的大,比如1TB,可以考虑将hdfs上的每个block size设大,比如设成256MB或者512MB
FileInputFormat切片机制:
切片定义在InputFormat类中的getSplit()方法。
默认按照文件长度等长划分,大小为block大小,切片时不考虑整体数据,而是针对每个文件单独切片。
ReduceTask并行度的决定:
Reducetask数量的决定是可以直接手动设置。
//默认值是1,手动设置为3
job.setNumReduceTasks(3)
如果数据分布不均匀,就有可能在reduce阶段产生数据倾斜
注意: reducetask数量并不是任意设置,还要考虑业务逻辑需求,有些情况下,需要计算全局汇总结果,就只能有1个reducetask。尽量不要运行太多的reduce task。对大多数job来说,最好rduce的个数最多和集群中的reduce持平,或者比集群的 reduce slots小。这个对于小集群而言,尤其重要。
2.MAPREDUCE程序运行模式
1)本地运行
- mapreduce程序是被提交给LocalJobRunner在本地以单进程的形式运行
- 怎样实现本地运行?写一个程序,不要带集群的配置文件(本质是你的mr程序的conf中是否有mapreduce.framework.name=local以及yarn.resourcemanager.hostname参数)
- 本地模式非常便于进行业务逻辑的debug,只要在eclipse中打断点即可
如果在windows下想运行本地模式来测试程序逻辑,需要在windows中配置环境变量:
%HADOOP_HOME% = d:/hadoop-3.1.2
%PATH% = %HADOOP_HOME%\bin
并且要将d:/hadoop-3.1.2的lib和bin目录替换成windows平台编译的版本
2) 集群运行模式
- 将mapreduce程序提交给yarn集群resourcemanager,分发到很多的节点上并发执行
- 处理的数据和输出结果应该位于hdfs文件系统
- 提交集群的实现步骤:
A、将程序打成JAR包,然后在集群的任意一个节点上用hadoop命令启动
$ hadoop jar ***.jar 客户端主类的路径 输入路径 输出路径
B、直接在linux的eclipse中运行main方法
(项目中要带参数:mapreduce.framework.name=yarn以及yarn的两个基本配置)
C、如果要在windows的eclipse中提交job给集群,则要修改YarnRunner类
3. MapReduce中的Combiner
- combiner是MR程序中Mapper和Reducer之外的一种组件
- combiner组件的父类就是Reducer
- combiner和reducer的区别在于运行的位置:(1)Combiner是在每一个maptask所在的节点运行。(2)Reducer是接收全局所有Mapper的输出结果;
- combiner的意义就是对每一个maptask的输出进行局部汇总,以减小网络传输量
具体实现步骤:
1、 自定义一个combiner继承Reducer,重写reduce方法
2、 在job中设置: job.setCombinerClass(CustomCombiner.class) - combiner能够应用的前提是不能影响最终的业务逻辑。而且,combiner的输出(K,V)应该跟reducer的输入(K,V)类型要对应起来。
- Combiner的使用要非常谨慎
因为combiner在mapreduce过程中可能调用也可能不调用,可能调一次也可能调多次。所以:combiner使用的原则是:有或没有都不能影响业务逻辑
4. shuffle机制
shuffle的作用是将maptask的结果分发给reduce,并且在分发的过程对数据按照key进行了分区和排序。
主要流程:
shuffle是MR处理流程中的一个过程,它的每一个处理步骤是分散在各个map task和reduce task节点上完成的,整体来看,分为3个操作:
1、分区partition
2、Sort根据key排序
3、Combiner进行局部value的合并
详细流程:
1、 maptask收集我们的map()方法输出的(K,V)对,放到内存缓冲区中。
2、 从内存缓冲区不断溢出本地磁盘文件,可能会溢出多个文件。
3、 多个溢出文件会被合并成大的溢出文件。
4、 在溢出过程中,及合并的过程中,都要调用partitoner进行分组和针对key进行排序
5、 reducetask根据自己的分区号,去各个maptask机器上取相应的结果。
6、 reducetask会取到同一个分区的来自不同maptask的结果文件,reducetask会将这些文件再进行合并(归并排序)
7、 合并成大文件后,shuffle的过程也就结束了,后面进入reducetask的逻辑运算过程(从文件中取出一个一个的键值对group,调用用户自定义的reduce()方法)
Shuffle中的缓冲区大小会影响到mapreduce程序的执行效率,原则上说,缓冲区越大,磁盘io的次数越少,执行速度就越快
缓冲区的大小可以通过参数调整, 参数:io.sort.mb 默认100M
5. MapReduce与YARN
Yarn概述
Yarn是一个资源调度平台,负责为运算程序提供服务器运算资源,相当于一个分布式的操作系统平台,而mapreduce等运算程序则相当于运行于操作系统之上的应用程序。
Yarn的重要概念
1、 yarn并不清楚用户提交的程序的运行机制
2、 yarn只提供运算资源的调度(用户程序向yarn申请资源,yarn就负责分配资源)
3、 yarn中的主管角色叫ResourceManager
4、 yarn中具体提供运算资源的角色叫NodeManager
5、 这样一来,yarn其实就与运行的用户程序完全解耦,就意味着yarn上可以运行各种类型的分布式运算程序(mapreduce只是其中的一种),比如mapreduce、storm程序,spark程序,tez ……
6、 所以,spark、storm等运算框架都可以整合在yarn上运行,只要他们各自的框架中有符合yarn规范的资源请求机制即可
7、 Yarn就成为一个通用的资源调度平台,从此,企业中以前存在的各种运算集群都可以整合在一个物理集群上,提高资源利用率,方便数据共享