大数据之Hadoop(MapReduce):Shuffle之Partition分区

1.问题引出

要求将统计结果按照条件输出到不同的文件中(分区)。比如:将统计结果按照手机归属地不同省份输出到不同的文件中(分区)

2.默认partition分区

public class HashPartitioner<k,v> extends partitioner<k,v> {
public int getPartition(K key,V value,int numReduceTasks){
return (key.hashCode()&Integer.MAX_VALUE) %numReduceTasks;
}
}

默认分区是根据key的hashCode对ReduceTasks个数取模得到的。用户没法控制哪个key存储到哪个分区。

3.自定义Partitioner步骤:

1.自定义类继承Partitioner,重写getPartition()方法

public class CustomPartitioner extends Partitioner<Text,FlowBean>{
@override
public int getPartition(Text key,FlowBean value, int numPartitions)
//控制分区代码逻辑
return partition;
}
}

2.在Job驱动中,设置自定义Partitioner

job.setPartitionerClass(Custom Partitioner.class);

3.自定义Partition后,要根据自定义Partitioner的逻辑设置相应数量的Reduce Task;

job.setNumReduceTasks(5);

4.分区总结

1.如果ReduceTask的数量> getPartition的结果数,则会多产生几个空的输出文件part-r-000xx;
2.如果1< ReduceTask的数量<getPartition的结果数,则有一部分分区数据无处安放,会Exception;
3.如果ReduceTask的数量=1,则不管MapTask端输出多少个分区文件,最终结果都交给这一个ReduceTask,最终也就只会产生一个结果文件part-r-00000;
4.分区号必须是从零开始,逐一累加;

5.案例分析:

例如:假设自定义分区数为5,则
1.job.setNumReduceTasks(1); 会正常运行,只不过会产生一个输出文件;
1.job.setNumReduceTasks(2); 会报错;
1.job.setNumReduceTasks(6); 大于5,程序会正常运行,会产生空文件;

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值