Hadoop的shuffle问题

一、MapperShuffle

  1. MapTask在接收到FileSplit之后进行按行读取
  2. 每读取一行调用一次map方法
  3. 执行完一次map之后会将输出的数据写到缓冲区中
  4. 缓冲区的大小默认是100M,可以通过io.sort.mb来进行调节
  5. 在缓冲区中,会对数据进行分区-partition,排序 - sort,合并 - combine操作
  6. 当缓冲区的容量利用率达到阈值0.8的时候,会启动给一个后台线程将缓冲区中的数据写到指定目录下的溢写文件中,这个过程称之为是溢写 (Spill)
  7. 每次的Spill都会产生一个新的溢写文件
  8. 等最后所有的数据都写完之后,会将所有的溢写文件进行一次合并 (merge),合并到一个新的分区并且排序的文件中
  9. 如果在最终合并的时候,溢写文件个数>=3,那么合并完成之后会再执行一次Combiner

 

二、注意问题

  1. 当产生溢写的时候,缓冲区最后残留的数据会flush到最后一个溢写文件中
  2. Spill理论上默认是80M,但是要考虑序列化以及最后的冲刷等因素
  3. 不能凭借一个MapTask处理的切片大小来衡量MapTask之后的输出数据的多少
  4. 每一个切片对应一个MapTask,每一个MapTask对应一个缓冲区
  5. 缓冲区本质上是一个字节数组
  6. 缓冲区又叫环形缓冲区,好处在于可以重复利用同一块地址的缓冲区
  7. 阈值的作用是避免Spill过程产生阻塞
  8. merge过程可能不会发生

 

三、ReducerShuffle

  1. ReduceTask通过Http的方式来得到输出文件的分区,这个过程称之为fetch
  2. 每一个ReduceTask将获取的分区的数据再次进行merge,然后进行排序
  3. 将相同的key做聚合,将值放入迭代器中,这一步称之为grouping
  4. 调用reduce方法,将key和迭代器传入

 

四、注意问题

  1. fetch的默认线程数是5
  2. ReduceTask的阈值为5%,即当5%的MapTask完成之后,ReduceTask就开始启动
  3. Merge因子默认为10,即每10个文件合并成一个文件

 

五、流程图

 

六、Shuffle调优

  1. Map阶段的调优:
    1. 调大缓冲区,一般可以调为250~350M
    2. 可以引入combine过程
    3. merge之后的文件可以进行压缩,减少网络传输的消耗
  2. Reduce阶段的调优:
    1. 增多fetch的线程数
    2. 降低ReduceTask的阈值
    3. 提高merge因子

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

鱼鱼大头鱼

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值