MapReduce的Shuffle过程及Hadoop优化

什么是Shuffle

Map之后,Reduce之前的这部分过程。

Shuffle机制

Map方法之后,数据写入到分区方法,把数据标记好分区,然后把数据发送到环形缓冲区。当环形缓冲区达到80%时,进行溢写。 

溢写之前对数据按照key的索引进行字典顺序进行排序。

溢写产生大量溢写文件,需要对溢写文件进行归档并排序。对溢写的文件也可以进行Combiner操作,前提是汇总操作,求平均值不行。最后将文件按照分区存储到磁盘,等待Reduce端拉取。

每个Reduce拉取Map端对应分区的数据。拉取数据后先存储到内存中,内存不够了,再存储到磁盘。拉取完所有数据后,采用归并排序将内存和磁盘中的数据都进行排序。在进入Reduce方法前,可以对数据进行分组操作。

 

Hadoop优化

0)HDFS小文件影响

(1)影响NameNode的寿命,因为文件元数据存储在NameNode的内存中

(2)影响计算引擎的任务数量,比如每个小的文件都会生成一个Map任务

1)数据输入小文件处理:

(1)合并小文件:对小文件进行归档(Har自定义Inputformat小文件存储成SequenceFile文件。

(2)采用ConbinFileInputFormat来作为输入,解决输入端大量小文件场景。

(3)对于大量小文件Job,可以开启JVM重用

2)Map阶段

(1)增大环形缓冲大小。由100m扩大到200m

(2)增大环形缓冲区溢写的比例。由80%扩大到90%

(3)减少对溢写文件的merge次数(10个文件,一次20个merge

4)不影响实际业务的前提下,采用Combiner提前合并,减少 I/O

3)Reduce阶段

1)合理设置Map和Reduce数:两个都不能设置太少,也不能设置太多。太少,会导致Task等待,延长处理时间;太多,会导致 Map、Reduce任务间竞争资源,造成处理超时等错误。

2)设置Map、Reduce共存:调整slowstart.completedmaps参数,使Map运行到一定程度后,Reduce也开始运行,减少Reduce的等待时间。

3规避使用Reduce,因为Reduce在用于连接数据集的时候将会产生大量的网络消耗。

(4)增加每个Reduce去Map中拿数据的并行数

5)集群性能可以的前提下,增大Reduce端存储数据内存的大小。

4IO传输

(1)采用数据压缩的方式,减少网络IO的的时间。安装Snappy和LZOP压缩编码器

(2)使用SequenceFile二进制文件

5)整体

(1)MapTask默认内存大小为1G,可以增加MapTask内存大小4-5g

2ReduceTask默认内存大小为1G,可以增加ReduceTask内存大小4-5g

(3)可以增加MapTaskcpu核数增加ReduceTaskCPU核数

(4)增加每个ContainerCPU核数和内存大小

(5)调整每个Map Task和Reduce Task最大重试次数

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值