mapReduce知识点总结

 
mapreduce概述
 
mapreduce定义:
 
MapReduce是一个分布式运 算程序的编程框架,是用户开发" 基于Hadoop的数据分析应用”的核心框架。
MapReduce核心功能是将用户编写的业务逻辑代码和自带默认组件整合成一个完整的分布式运算程序,并发运行在一个Hadoop集群 上。
 
mapreduce优缺点:
 
优点:
 
1. MapReduce易于编程
它简单的实现一些接口,就可以完成一个分布式程序,这个分布式程序可以分布到大量廉价的PC机器上运行。也就是说你写一个分布式程序 ,跟写
一个简单的串行程序是一模一样的。就是因为这个特点使得MapReduce编程变得非常流行。
 
2.良好的扩展性
当你的计算资源不能得到满足的时候,你可以通过简单的增加机器来扩展它的计算能力。
 
3.高容错性
MapReduce设计的初衷就是使程序能够部署在廉价的PC机器上,这就要求它具有很高的容错性。比如其中一台机器挂了,它可以把上面的计算任务
转移到另外一个节点上运行,不至于这个任务运行失败,而且这个过程不需要人工参与,而完全是由Hadoop内部完成的。
 
4.适合PB级以上海量数据的离线处理
可以实现上干台服务器集群并发工作,提供数据处理能力。
 
缺点:
 
1.不擅长实时计算
MapReduce无法像MySQL-样,在毫秒或者秒级内返回结果。
 
2.不擅长流式计算
流式计算的输入数据是动态的,而MapReduce的输入数据集是静态的,不能动态变化。这是因为MapReduce 自身的设计特点决定了数据源必须是静态的。
 
3.不擅长DAG (有向图)计算
 
多个应用程序存在依赖关系, 后一一个应用程序的输入为前一个的输出。在这种情况下, MapReduce并不是不能做,而是使用后,每个MapReduce作业
的输出结果都会写入到磁盘,会造成大量的磁盘IO ,导致性能非常的低下。
 
MapReduce核心编程思想
 
1)分布式的运算程序往往需要分成至少2个阶段。。
2)第一个阶段的MapTask并发实例,完全并行运行,互不相干。。
3)第二个阶段的ReduceTask并发实例互不相干,但是他们的数据依赖于上一个阶段的所有MapTask并发实例的输出。。
4) MapReduce 编程模型只能包含-一个Map阶段和-一个Reduce阶段,如果用户的业务逻辑非常复杂,那就只能多个MapReduce程序,串行运行。。
总结:分析WordCount数据流走向深入理解MapReduce核心思想。。
 
MapReduce进程
 
一个完整的MapReduce程序在分布式运行时有三类实例进程 :
1 ) MrAppMaster :负责整个程序的过程调度及状态协调。
2 ) MapTask :负责Map阶段的整个数据处理流程。
3 ) ReduceTask :负责Reduce阶段的整 个数据处理流程。
 
MapReduce编程规范
 
1. Mapper阶段
(1)用户自定义的Mapper要继承自己的父类
(2) Mapper的输入数据是KV对的形式( KV的类型可自定义)
(3) Mapper中的业务逻辑写在map0方法中
(4) Mapper的输出数据是KV对的形式(KV的类型可自定义)
(5)map0方法(MapTak进程)对每一-个K,V>调用一-次
 
2. Reducer阶段
( 1 )用户自定义的Reduce要继承自己的父类
( 2 ) Reducer的输入数据类型对应Mapper的输出数据类型,也是KV
( 3 ) Reducer的业务逻辑写在reduce0方法中
( 4 ) ReduceTask进程对每- 组相同k的<k,v>组调用一 次reduce0方法
 
3. Driver阶段
相当于YARN集群的客户端,用于提交我们整个程序到YARN集群, 提交的是
封装了MapReduce程序相关运行参数的job对象
 
 
hadoop序列化
 
序列化概述
 
什么是序列化
 
序列化就是把内存中的对象,转换成字节序列( 或其他数据传输协议)以便于存储到磁盘(持久化)和网络传输。
反序列化就是将收到字节序列(或其他数据传输协议)或者是磁盘的持久化数据,转换成内存中的对象。
 
为什么要序列化
 
一般来说 ,“活的" 对象只生存在内存里,关机断电就没有了。而且“活的"对象只能由本地的进程使用,不能被发送到网络上的另外一台计算机。然而序
列化可以存储"活的”对象,可以将“活的"对象发送到远程计算机。
 
为什么不用Java的序列化
 
Java的序列化是一个重 量级序列化框架( Serializable ) , 一个对象被序列化后,会附带很多额外的信息(各种校验信息, Header ,继承体系等) , 不便于在网络中高效
传输。所以, Hadoop自己开发了一套序列化机制 ( Writable )。
 
Hadoop序列化特点:
 
(1)紧凑:高效使用存储空间。
(2)快速:读写数据的额外开销小。
(3)可扩展:随着通信协议的升级而可升级
(4)互操作:支持多语言的交互
 
自定义bean对象实现序列化接口(Writable)
 
具体实现bean对象序列化步骤如下7步。
(1)必须实现Writable接口
(2)反序列化时,需要反射调用空参构造函数,所以必须有空参构造
(3)重写序列化方法
(4)重写反序列化方法
(5)注意反序列化的顺序和序列化的顺序完全一致
(6)要想把结果显示在文件中,需要重写toString(),可用”\t”分开,方便后续用。
(7)如果需要将自定义的bean放在key中传输,则还需要实现Comparable接口,因为MapReduce框中的Shuffle过程要求对key必须能排序。详见后面排序案例。
 
MapReduce开发总结
 
1.输入数据接口: InputFormat
 
(1)默认使用的实现类是: TextInputFormat
(2) TextnputFormat的功能逻辑是: 一次读一行文本,然后将该行的起始偏移量作为key ,行内容作为valhue返回。
(3) KeyValueTextnputFormat每一行均为一条记录,被分隔符分割为key ,value。默认分隔符是tab(\t)。
(4) NlineInputFormat按照指定的行数N来划分切片。
(5) CombineTextInputFormat可以把多个小文件合并成一个切片处理 , 提高处理效率。
(6)用户还可以自定义InputFormat.小子下决办小陛6的比火
 
2.逻辑处理接口: Mapper
 
用户根据业务需求实现其中三个方法: map() setup() cleanup()
 
3. Partitioner分区
 
(1)有默认实现HashPartitioner,逻辑是根据key的哈希值和umReduces来返回一个分区号; key hashCode( )&Integer. MAXVALUE %numReduces
(2)如果业务.上有特别的需求,可以自定义分区。
 
 
4. Comparable排序
 
(l)当我们用自定义的对象作为key来输出时,就必须要实现WritableComparable接口,重写其中的compareTo0方法。
(2)部分排序:对最终输出的每一 个文件进行内部排序。
(3)全排序:对所有数据进行排序,通常只有一个Reduce.
(4)二次排序:排序的条件有两个。
 
5. Combiner合并
 
Combiner合并可以提高程序执行效率,减少IO传输。但是使用时必须不能影响原有的业务处理结果。
 
6. Reduce端分组:
 
GroupingComparator在Reduce端对key进行分组。应用于:在接收的key为bean对象时,想让一个或几个字段相同(全部字段比较不相同)的key进入到同-个reduce方法时,可以采用分组排序。
 
7.逻辑处理接口:
 
Reducer用户根据业务需求实现其中三三个方法: reduce() setup() cleanup()
 
8.输出数据接口: OutputFormat
 
(l)默认实现类是TextOutputFormat ,功能逻辑是:将每一 个KV对,向目标文本文件输出一-行。
(2)将SequenceFileOutputFormat输出作为后续MapReduce任务的输入,这便是一种好的输出格式,因为它的格式紧凑,很容易被压缩。
(3)用户还可以自定义OutputFormat。
 
Hadoop数据压缩
 
压缩技术能够有效减少底层存储系统( HDFS )读写字节数。压缩提高了网络带宽和磁盘空间的效率。在运行MR程序时, I/O操作、网络数据传输、Shuffle
和Merge要花大量的时间,尤其是数据规模很大和工作负载密集的情况下,因此,使用数据压缩显得非常重要。
 
鉴于磁盘I/O和网络带宽是Hadoop的宝贵资源,数据压缩对于节省资源、最小化磁盘I/O和网络传输非常有帮助。可以在任意MapReduce阶段启用压缩。不
过,尽管压缩与解压操作的CPU开销不高,其性能的提升和资源的节省并非没有代价。
 
压缩是提高Hadoop运行效率的一种优化策略。通过对Mapper、Reducer运行过程的数据进行压缩,以减少磁盘IO ,提高MR程序运行速度。
 
注意:采用压缩技术减少了磁盘IO ,但同时增加了CPU运算负担。所以,压缩特性运用得当能提高性能,但运用不当也可能降低性能。
 
压缩基本原则:
 
(1)运算密集型的job,少用压缩
(2)IO密集型的job,多用压缩
 
压缩方式选择
 
Gzip压缩
 
优点:压缩率比较高,而且压缩解压速度也比较快;Hadoop本身支持,在应用中处理Gzip格式的文件就和直接处理文本一样;大部分Limux系统都自带Gzip命令,使用方便。
 
缺点:不支持Split。
 
应用场景:当每个文件压缩之后在130M以内的( 1个块大小内) , 都可以考虑用Gzip压缩格式。例如说一天或者一个小时的 日志压缩成一一个Gzip文件。
 
Bzip2压缩
 
优点:支持Split ;具有很高的压缩率,比Gzip压缩率都高; Hadoop本身自带,使用方便。
 
缺点:压缩解压速度慢。
 
应用场景: 适合对速度要求不高,但需要较高的压缩率的时候;或者输出之后的数据比较大,处理之后的数据需要压缩存档减少磁盘空间并且以后数
据用得比较少的情况;或者对单个很大的文本文件想压缩减少存储空间,同时又需要支持Split ,而且兼容之前的应用程序的情况。
 
Lzo压缩
 
优点:压缩解压速度也比较快,合理的压缩率; 支持Split ,是Hadoop中最流行的压缩格式;可以在Linux系统下安装lzop命令,使用方便。
 
缺点:压缩率比Gzip要低-些; Hadoop本身不支持,需要安装;在应用中对Lzo格式的文件需要做一些特殊处理(为了支持Split需要建索引,还需要指
定InputFormat为Lzo格式)。
 
应用场景: 一个很大的文本文件,压缩之后还大于200M以上的可以考虑,而且单个文件越大, Lzo优点越越明显。
 
Snappy压缩
 
优点:高速压缩速度和合理的压缩率。
 
缺点:不支持Split ;压缩率比Gzip要低; Hadoop本身不支持,需要安装。
 
应用场景:当MapReduce作业的Map输出的数据比较大的时候,作为Map到Reduce的中间数据的压缩格式;或者作为一个MapReduce作业的输出和另外一
个MapReduce作业的输入。
 
Shuffle机制
 
1)Map方法之后Reduce方法之前这段处理过程叫Shuffle
2)Map方法之后,数据首先进入到分区方法,把数据标记好分区,然后把数据发送到环形缓冲区;环形缓冲区默认大小100m,环形缓冲区达到80%时,进行溢写;溢写前对数据进行排序,排序按照对key的索引进行字典顺序排序,排序的手段快排;溢写产生大量溢写文件,需要对溢写文件进行归并排序;对溢写的文件也可以进行Combiner操作,前提是汇总操作,求平均值不行。最后将文件按照分区存储到磁盘,等待Reduce端拉取。
3)每个Reduce拉取Map端对应分区的数据。拉取数据后先存储到内存中,内存不够了,再存储到磁盘。拉取完所有数据后,采用归并排序将内存和磁盘中的数据都进行排序。在进入Reduce方法前,可以对数据进行分组操作。
 
Yarn资源调度器
 
Yarn是一个资源调度平台,负责为运算程序提供服务器运算资源,相当于一个分布式的操作系统平台,而MapReduce等运算程序则相当于运行于操作系统之上的应用程序。
 
工作机制详解
 
(1)MR程序提交到客户端所在的节点。
(2)YarnRunner向ResourceManager申请一个Application。
(3)RM将该应用程序的资源路径返回给YarnRunner。
(4)该程序将运行所需资源提交到HDFS上。
(5)程序资源提交完毕后,申请运行mrAppMaster。
(6)RM将用户的请求初始化成一个Task。
(7)其中一个NodeManager领取到Task任务。
(8)该NodeManager创建容器Container,并产生MRAppmaster。
(9)Container从HDFS上拷贝资源到本地。
(10)MRAppmaster向RM 申请运行MapTask资源。
(11)RM将运行MapTask任务分配给另外两个NodeManager,另两个NodeManager分别领取任务并创建容器。
(12)MR向两个接收到任务的NodeManager发送程序启动脚本,这两个NodeManager分别启动MapTask,MapTask对数据分区排序。
(13)MrAppMaster等待所有MapTask运行完毕后,向RM申请容器,运行ReduceTask。
(14)ReduceTask向MapTask获取相应分区的数据。
(15)程序运行完毕后,MR会向RM申请注销自己。
 
资源调度器
 
先进先出调度器(FIFO)
 
容量调度器(Capacity Scheduler)
 
1、支持多个队列,每个队列可配置一 定的资源量, 每个队列采用FIFO调度策略。
2、为了防止同一个用户的作业独占队列中的资源,该调度器会对同一-用户提交的作业所占资源量进行限定。
3、首先,计算每个队列中正在运行的任务数与其应该分得的计算资源之间的比值,选择一个该比值最小的队列一最闲的。
4、其次,按照作业优先级和提交时间顺序,同时考虑用户资源量限制和内存限制对队列内任务排序。让天下没有难学的技术
5、三个队列同时按照任务的先后顺序依次执行,比如, job11、job21和job31分别排在队列最前面,先运行 ,也是并行运行。
 
公平调度器(Fair Scheduler)
 
支持多队列多用户,每个队列中的资源量可以配置,同一队列中.的作业公平共享队列中所有资源。
 
任务的推测执行
 
1.作业完成时间取决于最慢的任务完成时间
 
一个作业由若干个Map任务和Reduce任务构成。因硬件老化、软件Bug等,某些任务可能运行非常慢。
 
2.推测执行机制
 
发现拖后腿的任务,比如某个任务运行速度远慢于任务平均速度。为拖后腿任务启动一个备份任务,同时运行。谁先运行完,则采用谁的结果。
 
3.执行推测任务的前提条件
 
(1)每个Task只能有一个备份任务
(2)当前Job已完成的Task必须不小于0.05(5%)
(3)开启推测执行参数设置。mapred-site.xml文件中默认是打开的。
 
4.不能启用推测执行机制情况
 
(1)任务间存在严重的负载倾斜;
(2)特殊任务,比如任务向数据库中写数据。
 
Hadoop企业优化
 
MapReduce 跑的慢的原因
 
MapReduce程序效率的瓶颈在于两点:
 
1.计算机性能
 
CPU、内存、磁盘健康、网络
 
2.I/O 操作优化
 
(1)数据倾斜
(2)Map和Reduce数设置不合理
(3)Map运行时间太长,导致Reduce等待过久
(4)小文件过多
(5)大量的不可分块的超大文件
(6)Spill次数过多
(7)Merge次数过多等。
 
MapReduce优化方法
 
数据输入
 
(l)合并小文件:在执行MR任务前将小文件进行合并,大量的小文件会.产生大量的Map任务,增大Map任务装载次数,而任务的装载比较耗时,从而导致MR运行较慢。
(2)采用CombineTextInputFormat来作为输入,解决输入端大量小文件场景。
 
Map阶段
 
(1)减少溢写( Spill )次数:通过调整io.sort.mb及sort. spill. percent参数值,增大触发Spill的内存上限,减少Spill次数,从而减少磁盘lO。
(2)减少合并( Merge )次数:通过调整io.sort.factor参数,增大Merge的文件数目,减少Merge的次数,从而缩短MR处理时间。
(3)在Map之后,不影响业务逻辑前提下,先进行Combine处理,减少I/O。
 
Reduce阶段
 
(1)合理设置Map和Reduce数:两个都不能设置太少,也不能设置太多。太少,会导致Task等待,延长处理时间;太多,会导致Map、Reduce任务 间竞争资源,造成处理超时等错误。
(2 )设置Map、Reduce共存 :调整slowstart. completedmaps参数,使Map运行到一定程度后, Reduce也开始运行,减少Reduce的等待时间。
(3 )规避使用Reduce :因为Reduce在用于连接数据集的时候将会产生大量的网络消耗。
 
IO传输
 
1 )采用数据压缩的方式,减少网络IO的的时间。安装Snappy 和LZO压缩编码器。
2 )使用SequenceFile- =进制文件。
 
数据倾斜问题
 
1.数据倾斜现象
 
数据频率倾斜某- 个区域的数据量要远远大于其他区域。数据大小倾斜部分记录的大小远远大于平均值。
 
2.减少数据倾斜的方法.
 
方法1 :抽样和范围分区
可以通过对原始数据进行抽样得到的结果集来预设分区边界值。
 
方法2 :自定义分区
基于输出键的背景知识进行自腚义分区。例如,如果Map输出键的单词来源于本书。騏中几个传业词汇较多。那么就可以自定义分区将这这些专业词汇发送给固
定的一部分Reduce实例。而将其他的都发送给剩余的R educ e实例。
 
方法3 : Combine
使用Combine可以大量地减卜数据倾斜。在可能的情况下, Combine的目的就是聚台并精简数据。
 
方法4 :采用Map Join ,尽量避免Reduce Join。
让天下没有难学的技术
 
HDFS小文件优化方法
 
HDFS小文件弊端
 
HDFS上每个文件都要在NameNode上建立一个索引,这个索引的大小约为150byte,这样当小文件比较多的时候,就会产生很多的索引文件,一方面会大量占用NameNode的内存空间,另一方面就是索引文件过大使得索引速度变慢。
 
HDFS小文件解决方案
 
小文件的优化无非以下几种方式:
(1)在数据采集的时候,就将小文件或小批数据合成大文件再上传HDFS。
(2)在业务处理之前,在HDFS上使用MapReduce程序对小文件进行合并。
(3)在MapReduce处理时,可采用CombineTextInputFormat提高效率。
 
1. Hadoop Archive
是一个高效地将小文件放入HDFS块中的文件存档工具,它能够将多个小文件打包成一个HAR文件 ,这样就减少了NameN ode的内存使用。
 
2. Sequence File
Sequence File由一 系列的二进制key/value组成, 如果key为文件名, value为文件内容,则可以将大批小文件合并成一个大文件。
 
3. Combine FileInputFormat
CombineFileInputFormat是一种新的InputFormat ,用于将多个文件合并成一个单独的Split ,另外,它会考虑数据的存储位置。
 
Hadoop参数调优
 
1)在hdfs-site.xml文件中配置多目录,最好提前配置好,否则更改目录需要重新启动集群
2)NameNode有一个工作线程池,用来处理不同DataNode的并发心跳以及客户端并发的元数据操作。
dfs.namenode.handler.count=20 * log2(Cluster Size),比如集群规模为10台时,此参数设置为60
3)编辑日志存储路径dfs.namenode.edits.dir设置与镜像文件存储路径dfs.namenode.name.dir尽量分开,达到最低写入延迟
4)服务器节点上YARN可使用的物理内存总量,默认是8192(MB),注意,如果你的节点内存资源不够8GB,则需要调减小这个值,而YARN不会智能的探测节点的物理内存总量。yarn.nodemanager.resource.memory-mb
5)单个任务可申请的最多物理内存量,默认是8192(MB)。yarn.scheduler.maximum-allocation-mb
 
 
 
  • 1
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值