浅谈Hadoop shuffle

shuffle机制图解

map task部分

1.map读取split输入数据。
2.map处理数据生成key-value。
3.key-value存入内存中的buffer。
4.buffer默认100M(io.sort.mb),当buffer中数据很多超过一个阀值(默认0.8,io.sort.spill.percent),后台将有一个线程(spill)将buffer中数据写入磁盘,存入指定地址(mapred.local.dir)的一个新建的文件中,这个文件被称为溢出写文件。
5.在写之前会将数据分组。
6.等所有数据map完后,将所有数据合并为一个分区的并且排序好的数据。
7.发给reduce task

reduce task部分

1.reduce通过HTTP方式请求map task所在的TaskTracker获取map task的输出文件
2.map输出文件可能存在内存也可能在硬盘。
3.将不同机器运送来的数据分好组并且合并。
4.跑reduce

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值