数据切片与MapTask的并行度决定机制

博客探讨了Hadoop MapReduce中,当文件块大小与切片大小相同时,能实现最佳的工作效率。Mapper阶段的任务数量由Drive提交的job的切片数量决定,每个切片对应一个MapTask。默认情况下,块大小等于切片大小,且在切片过程中,每个文件独立切片,不综合考虑数据总体大小。
摘要由CSDN通过智能技术生成

文件块大小(默认128M)与切片大小一致时工作效率最高。

  1. 一个Job的mapper阶段并度有Drive提交的job的切片数量决定
  2. 每一个切片对应一个新的MapTask
  3. 默认情况下块大小等于切片大小
  4. 切片时,每个文件单独切片,不考虑数据整体大小(操作目录文件夹下的所有文件单独切片
  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

缘不易

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值