hadoop的shuffle原理

Hadoop 的 Shuffle 原理是将 Map 阶段处理后生成的中间结果重新排序并分组,以便在 Reduce 阶段进行进一步处理。Shuffle 过程主要包括三个步骤:Partitioning,Sorting 和 Combining。

Partitioning:将 Map 阶段的输出数据按 Key 分别分配到不同的 Reducer 上。

Sorting:对于每一个 Reducer,将分配到其上的所有数据按 Key 值排序。

Combining:在排序之后,Shuffle 还可以对数据进行合并,以减少数据传输量。

Shuffle 过程是 Hadoop 中 MapReduce 计算模型

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值