MapReduce架构及原理解析

目录

一、MapReduce概念

1 为什么要MapReduce

2 MapReduce的核心思想

3 MapReduce进程

4 MapReduce编程规范(八股文)  

WordCount案例

5 MapReduce程序运行流程分析

二、Hadoop序列化

1 Writable序列化

1.1 常用数据序列化类型

1.2 自定义bean对象实现序列化接口

三、MapReduce框架原理

1 MapTask并行度决定机制

2 InputFormat数据切片机制

2.1 FileInputFormat切片机制

2.2 CombineTextInputFormat切片机制

3 分区讲解——Shuffle机制

3.1 概述

3.2 Shuffle机制

3.3 WritableComparable排序

3.4 Combiner合并


​​​​​​​

一、MapReduce概念

        Mapreduce是一个分布式运算程序的编程框架,是用户开发“基于hadoop的数据分析应用”的核心框架;Mapreduce核心功能是将用户编写的业务逻辑代码和自带默认组件整合成一个完整的分布式运算程序,并发运行在一个hadoop集群上。

1 为什么要MapReduce

    1)海量数据在单机上处理因为硬件资源限制,无法胜任 

    2)而一旦将单机版程序扩展到集群来分布式运行,将极大增加程序的复杂度和开发难度 

    3)引入mapreduce框架后,开发人员可以将绝大部分工作集中在业务逻辑的开发上,而将分布式计算中的复杂性交由框架来处理。 

    4)mapreduce分布式方案考虑的问题 

        (1)运算逻辑要不要先分后合?  

        (2)程序如何分配运算任务(切片)? 

        (3)两阶段的程序如何启动?如何协调? 

        (4)整个程序运行过程中的监控?容错?重试? 

    分布式方案需要考虑很多问题,但是我们可以将分布式程序中的公共功能封装成框架,让开发人员将精力集中于业务逻辑上。而mapreduce就是这样一个分布式程序的通用框架。

2 MapReduce的核心思想

        

1)分布式的运算程序往往需要分成至少2个阶段

2)第一个阶段的maptask并发实例,完全并行运行,互不相干 

3)第二个阶段的reduce task并发实例互不相干,但是他们的数据依赖于上一个阶段的所有maptask并发实例的输出 

4)MapReduce编程模型只能包含一个map阶段和一个reduce阶段,如果用户的业务逻辑非常复杂,那就只能多个mapreduce程序,串行运行

3 MapReduce进程

一个完整的mapreduce程序在分布式运行时有三类实例进程: 

    1)MrAppMaster:负责整个程序的过程调度及状态协调 

    2)MapTask:负责map阶段的整个数据处理流程 

    3)ReduceTask:负责reduce阶段的整个数据处理流程

4 MapReduce编程规范(八股文)  

用户编写的程序分成三个部分:Mapper,Reducer,Driver(提交运行mr程序的客户端) 

1)Mapper阶段 

    (1)用户自定义的Mapper要继承自己的父类 

    (2)Mapper的输入数据是KV对的形式(KV的类型可自定义) 

    (3)Mapper中的业务逻辑写在map()方法中 

    (4)Mapper的输出数据是KV对的形式(KV的类型可自定义) 

    (5)map()方法(maptask进程)对每一个<K,V>调用一次(此时调用的<K,V>可以是K->行号,V->每一行内容,按行处理) 

2)Reducer阶段 

    (1)用户自定义的Reducer要继承自己的父类 

    (2)Reducer的输入数据类型对应Mapper的输出数据类型,也是KV 

    (3)Reducer的业务逻辑写在reduce()方法中 

    (4)Reducetask进程对每一组相同k的<k,v>组调用一次reduce()方法 

3)Driver阶段 整个程序需要一个Drvier来进行提交,提交的是一个描述了各种必要信息的job对象

WordCount案例

1) 定义一个mapper类

import java.io.IOException;
import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.LongWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Mapper;
/**
 * KEYIN:输入数据的key  文件的行号
 * VALUEIN:每行的输入数据
 *
 * KEYOUT:输出数据 的key
 * VALUEOUT:输出数据的value类型
 *
 * KEYIN:默认情况下,是mr框架所读到的一行文本的起始偏移量,Long;
 * 在hadoop中有自己的更精简的序列化接口,所以不直接用Long,而是用LongWritable
 * VALUEIN:默认情况下,是mr框架所读到的一行文本内容,String;此处用Text
 *
 * KEYOUT:是用户自定义逻辑处理完成之后输出数据中的key,在此处是单词,String;此处用Text
 * VALUEOUT,是用户自定义逻辑处理完成之后输出数据中的value,在此处是单词次数,Integer,此处用IntWritable
 */
public class WordcountMapper extends Mapper<LongWritable, Text, Text, IntWritable>{
     //hello world
     //atguigu atguigu
     /**
      * map阶段的业务逻辑就写在自定义的map()方法中
      * maptask会对每一行输入数据调用一次我们自定义的map()方法
      */
     @Override
     protected void map(LongWritable key, Text value, Context context) throws IOException, InterruptedException {
          // 1获取这一行数据
          String line = value.toString();
          // 2 获取每一个单词
          String[] words = line.split(" ")
          // 3 输出每一个单词,将单词输出为<单词,1>
          for(String word:words){
              context.write(new Text(word), new IntWritable(1));
          }
     }
}

2) 定义一个reducer类

import java.io.IOException;
import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Reducer;
/**
 * KEYIN , VALUEIN 对应mapper输出的KEYOUT, VALUEOUT类型
 * KEYOUT,VALUEOUT 对应自定义reduce逻辑处理结果的输出数据类型 KEYOUT是单词 VALUEOUT是总次数
*/
public class WordcountReducer extends Reducer<Text, IntWritable, Text, IntWritable>{
     //atguigu 1 atguigu 1
     @Override
     protected void reduce(Text key, Iterable<IntWritable> values,
                        Context context) throws IOException, InterruptedException {
          // 1 统计所有单词个数
          int count = 0;
          for(IntWritable value:values){
              count += value.get();
          }
          // 2输出所有单词个数
          context.write(key, new IntWritable(count));
     }
}

3) 定义一个主类,用来描述job并提交job 

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Job;
import org.apache.hadoop.mapreduce.lib.input.CombineTextInputFormat;
import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;
// 驱动主程序
public class WordcountDriver {
     public static void main(String[] args) throws Exception {
          // 1 获取job对象信息
          Configuration configuration = new Configuration();
          Job job = Job.getInstance(configuration);
          // 2 设置加载jar位置
          job.setJarByClass(WordcountDriver.class);
          // 3 设置mapper和reducer的class类
          job.setMapperClass(WordcountMapper.class);
          job.setReducerClass(WordcountReducer.class);
          // 4 设置输出mapper的数据类型
          job.setMapOutputKeyClass(Text.class);
          job.setMapOutputValueClass(IntWritable.class);
          // 5 设置最终数据输出的类型
          job.setOutputKeyClass(Text.class);
          job.setOutputValueClass(IntWritable.class);
          // 6 设置输入数据和输出数据路径
          FileInputFormat.setInputPaths(job, new Path(args[0]));
          FileOutputFormat.setOutputPath(job, new Path(args[1]));
          // 7 提交
          boolean result = job.waitForCompletion(true);
          System.exit(result ? 0 : 1);
     }
}

5 MapReduce程序运行流程分析

        

1)在MapReduce程序读取文件的输入目录上存放相应的文件。

2)客户端程序在submit()方法执行前,获取待处理的数据信息,然后根据集群中参数的配置形成一个任务分配规划。

3)客户端提交job.split、jar包、job.xml等文件给yarn,yarn中的resourcemanager启动MRAppMaster。 

4)MRAppMaster启动后根据本次job的描述信息,计算出需要的maptask实例数量,然后向集群申请机器启动相应数量的maptask进程。 

5)maptask利用客户指定的inputformat来读取数据,形成输入KV对。 

6)maptask将输入KV对传递给客户定义的map()方法,做逻辑运算 

7)map()运算完毕后将KV对收集到maptask缓存。 

8)maptask缓存中的KV对按照K分区排序后不断写到磁盘文件 

9)MRAppMaster监控到所有maptask进程任务完成之后,会根据客户指定的参数启动相应数量的reducetask进程,并告知reducetask进程要处理的数据分区。 

10)Reducetask进程启动之后,根据MRAppMaster告知的待处理数据所在位置,从若干台maptask运行所在机器上获取到若干个maptask输出结果文件,并在本地进行重新归并排序,然后按照相同key的KV为一个组,调用客户定义的reduce()方法进行逻辑运算。 

11)Reducetask运算完毕后,调用客户指定的outputformat将结果数据输出到外部存储。

 

二、Hadoop序列化

Writable序列化

        序列化就是把内存中的对象,转换成字节序列(或其他数据传输协议)以便于存储(持久化)和网络传输。  

        反序列化就是将收到字节序列(或其他数据传输协议)或者是硬盘的持久化数据,转换成内存中的对象。 

        Java的序列化是一个重量级序列化框架(Serializable),一个对象被序列化后,会附带很多额外的信息(各种校验信息,header,继承体系等),不便于在网络中高效传输。所以,hadoop自己开发了一套序列化机制(Writable),精简、高效。

1.1 常用数据序列化类型

        

1.2 自定义bean对象实现序列化接口

    1)自定义bean对象要想序列化传输,必须实现序列化接口,需要注意以下7项。 

        (1)必须实现Writable接口 

        (2)反序列化时,需要反射调用空参构造函数,所以必须有空参构造 

        (3)重写序列化方法 

        (4)重写反序列化方法 

        (5)注意反序列化的顺序和序列化的顺序完全一致 

        (6)要想把结果显示在文件中,需要重写toString(),且用”\t”分开,方便后续用 

        (7)如果需要将自定义的bean放在key中传输,则还需要实现comparable接口,因为mapreduce框中的shuffle过程一定会对key进行排序

三、MapReduce框架原理

MapReduce工作流程:

    MapReduce详细工作流程(一)

        

    MapReduce详细工作流程(二)

        

流程详解:

1 MapTask并行度决定机制

问题引出:

    maptask的并行度决定map阶段的任务处理并发度,进而影响到整个job的处理速度。那么,mapTask并行任务是否越多越好呢?

MapTask并行度决定机制:

    一个job的map阶段MapTask并行度(个数),由客户端提交job时的切片个数决定,

        

2 InputFormat数据切片机制

2.1 FileInputFormat切片机制

    1)job提交流程源码详解

        

        

 

    2)FileInputFormat源码解析(input.getSplits(job))

    (1)找到你数据存储的目录。 

    (2)开始遍历处理(规划切片)目录下的每一个文件 

    (3)遍历第一个文件ss.txt 

        a)获取文件大小fs.sizeOf(ss.txt); 

        b)计算切片大小computeSliteSize(Math.max(minSize,Math.max(maxSize,blocksize)))=blocksize=128M 

        c)默认情况下,切片大小=blocksize 

        d)开始切,形成第1个切片:ss.txt—0:128M 第2个切片ss.txt—128:256M 第3个切片ss.txt—256M:300M(每次切片时,都要判断切完剩下的部分是否大于块的1.1倍,不大于1.1倍就划分一块切片) 

        e)将切片信息写到一个切片规划文件中 f)整个切片的核心过程在getSplit()方法中完成。 

        g)数据切片只是在逻辑上对输入数据进行分片,并不会再磁盘上将其切分成分片进行存储。InputSplit只记录了分片的元数据信息,比如起始位置、长度以及所在的节点列表等。 

        h)注意:block是HDFS上物理上存储的存储的数据,切片是对数据逻辑上的划分。 

    (4)提交切片规划文件到yarn上,yarn上的MrAppMaster就可以根据切片规划文件计算开启maptask个数。

 

    3)FileInputFormat中默认的切片机制:

        (1)简单地按照文件的内容长度进行切片 

        (2)切片大小,默认等于block大小 

        (3)切片时不考虑数据集整体,而是逐个针对每一个文件单独切片 

         比如待处理数据有两个文件:

            

         经过FileInputFormat的切片机制运算后,形成的切片信息如下:

            

 

    4)FileInputFormat切片大小的参数配置

    通过分析源码,在FileInputFormat中,计算切片大小的逻辑:Math.max(minSize, Math.min(maxSize, blockSize));   

    切片主要由这几个值来运算决定 

        mapreduce.input.fileinputformat.split.minsize=1 默认值为1 

        mapreduce.input.fileinputformat.split.maxsize= Long.MAXValue 默认值Long.MAXValue 

    因此,默认情况下,切片大小=blocksize。 

        maxsize(切片最大值):参数如果调得比blocksize小,则会让切片变小,而且就等于配置的这个参数的值。 

        minsize (切片最小值):参数调的比blockSize大,则可以让切片变得比blocksize还大。

 

    5)获取切片信息API

        // 根据文件类型获取切片信息

        FileSplit inputSplit = (FileSplit) context.getInputSplit();

        // 获取切片的文件名称

        String name = inputSplit.getPath().getName();

 

2.2 CombineTextInputFormat切片机制

关于大量小文件的优化策略

1)默认情况下TextInputformat对任务的切片机制是按文件规划切片,不管文件多小,都会是一个单独的切片,都会交给一个maptask,这样如果有大量小文件,就会产生大量的maptask,处理效率极其低下。 

2)优化策略 

    (1)最好的办法,在数据处理系统的最前端(预处理/采集),将小文件先合并成大文件,再上传到HDFS做后续分析。 

    (2)补救措施:如果已经是大量小文件在HDFS中了,可以使用另一种InputFormat来做切片(CombineTextInputFormat),它的切片逻辑跟TextFileInputFormat不同:它可以将多个小文件从逻辑上规划到一个切片中,这样,多个小文件就可以交给一个maptask。 

    (3)优先满足最小切片大小,不超过最大切片大小 

        CombineTextInputFormat.setMaxInputSplitSize(job, 4194304);// 4m 

        CombineTextInputFormat.setMinInputSplitSize(job, 2097152);// 2m 

    举例:0.5m+1m+0.3m+5m=2m + 4.8m=2m + 4m + 0.8m

3)具体实现步骤

        

3 分区讲解——Shuffle机制

3.1 概述

  1) mapreduce中,map阶段处理的数据如何传递通过reduce阶段,是mapreduce框架中最关键的一个流程,这个流程就叫shuffle; 

  2) shuffle:洗牌、发牌(核心机制:数据分区、排序、緩存);

  3) 具体来说:就是将maptask输出的处理结果数据,分发给reducetask, 并在分发的过程中,对数据按key进行了分区和排序。

 

3.2 Shuffle机制

Mapreduce确保每个reducer的输入都是按键排序的。系统执行排序的过程(即将map输出作为输入传给reducer)称为shuffle。

        

 

3.3 WritableComparable排序

    排序是MapReduce框架中最重要的操作之一。Map Task和Reduce Task均会对数据(按照key)进行排序。该操作属于Hadoop的默认行为。任何应用程序中的数据均会被排序,而不管逻辑上是否需要。默认排序是按照字典顺序排序,且实现该排序的方法是快速排序。

    对于Map Task,它会将处理的结果暂时放到一个缓冲区中,当缓冲区使用率达到一定阈值后,再对缓冲区中的数据进行一次排序,并将这些有序数据写到磁盘上,而当数据处理完毕后,它会对磁盘上所有文件进行一次合并,以将这些文件合并成一个大的有序文件。 

    对于Reduce Task,它从每个Map Task上远程拷贝相应的数据文件,如果文件大小超过一定阈值,则放到磁盘上,否则放到内存中。如果磁盘上文件数目达到一定阈值,则进行一次合并以生成一个更大文件;如果内存中文件大小或者数目超过一定阈值,则进行一次合并后将数据写到磁盘上。当所有数据拷贝完毕后,Reduce Task统一对内存和磁盘上的所有数据进行一次合并。 

每个阶段的默认排序

1)排序的分类:

    (1)部分排序: MapReduce根据输入记录的键对数据集排序。保证输出的每个文件内部排序。 

    (2)全排序: 如何用Hadoop产生一个全局排序的文件?最简单的方法是使用一个分区。但该方法在处理大型文件时效率极低,因为一台机器必须处理所有输出文件,从而完全丧失了MapReduce所提供的并行架构。 

      替代方案:首先创建一系列排好序的文件;其次,串联这些文件;最后,生成一个全局排序的文件。主要思路是使用一个分区来描述输出的全局排序。例如:可以为上述文件创建3个分区,在第一分区中,记录的单词首字母a-g,第二分区记录单词首字母h-n, 第三分区记录单词首字母o-z。 

    (3)辅助排序:(GroupingComparator分组) 

     Mapreduce框架在记录到达reducer之前按键对记录排序,但键所对应的值并没有被排序。甚至在不同的执行轮次中,这些值的排序也不固定,因为它们来自不同的map任务且这些map任务在不同轮次中完成时间各不相同。一般来说,大多数MapReduce程序会避免让reduce函数依赖于值的排序。但是,有时也需要通过特定的方法对键进行排序和分组等以实现对值的排序。

2)自定义排序WritableComparable

    (1)原理分析 bean对象实现WritableComparable接口重写compareTo方法,就可以实现排序

        

3.4 Combiner合并

    图中Combiner合并处:

    

1)combiner是MR程序中Mapper和Reducer之外的一种组件

2)combiner组件的父类就是Reducer 

3)combiner和reducer的区别在于运行的位置: Combiner是在每一个maptask所在的节点运行 Reducer是接收全局所有Mapper的输出结果; 4)combiner的意义就是对每一个maptask的输出进行局部汇总,以减小网络传输量

5)自定义Combiner实现步骤:

    (1)自定义一个combiner继承Reducer,重写reduce方法

        

    (2)在job中设置

        

6)combiner能够应用的前提是不能影响最终的业务逻辑,而且,combiner的输出kv应该跟reducer的输入kv类型要对应起来

    Mapper 

        3 5 7 ->(3+5+7)/3=5 

         2 6 ->(2+6)/2=4 

    Reducer 

        (3+5+7+2+6)/5=23/5    不等于    (5+4)/2=9/2

  • 3
    点赞
  • 17
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
MapReduce是Hadoop分布式计算框架中的一种编程模型,用于处理大规模数据集。MapReduce架构由两个主要组件构成:Map和Reduce。 Map任务是对数据的并行处理过程,它将输入数据切分成多个小块,然后分配给集群中的多个节点进行并行计算。Map任务会将每个输入数据块转换为键值对,然后将这些键值对传递给Reduce任务。 Reduce任务是对Map任务的输出进行汇总和归约的过程,它将键值对作为输入,然后对相同键的值进行汇总和归约,最终输出结果。 整个MapReduce架构的工作流程如下: 1. 输入数据被切分成多个小块,并分配给集群中的多个节点进行Map任务的并行计算。 2. Map任务将输入数据块转换为键值对,并将这些键值对传递给Reduce任务。 3. Reduce任务对Map任务的输出进行汇总和归约,最终输出结果。 MapReduce架构具有以下特点: 1. 易于扩展和部署:MapReduce架构可以很容易地扩展到数千个计算节点,以处理大量数据,同时保持高性能和高可靠性。 2. 高性能和高效率:MapReduce架构可以并行处理大量数据,从而提高数据处理的速度和效率。 3. 适用于大规模数据处理:MapReduce架构适用于处理大规模数据集,可以在较短的时间内处理大量数据。 综上所述,MapReduce架构是Hadoop分布式计算框架的核心组件之一,它具有易于扩展和部署、高性能和高效率、适用于大规模数据处理等特点,是处理大规模数据集的理想解决方案。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值