MapReduce去重

一:背景

很多数据源中的数据都是含有大量重复的,为此我们需要将重复的数据去掉,这也称为数据的清洗,MapReduce从Map端到Reduce端的Shuffle过程天生就有去重的功能,但是这是对输出的Key作为参照进行去重的。所以我们可以将Map端读入Value作为Key输出,就可以很方便的实现去重了。


二:技术实现

#需求 有两个文件file0和file1。将两个文件中的内容合并去重。

#file0的内容如下:

1
1
2
2
3
3
4
4
5
5
6
6
7
8
9
file1的内容如下:

1
9
9
8
8
7
7
6
6
5
5
4
4
2
1
2

代码实现:

public class DistinctTest {
		// 定义输入路径
		private static final String INPUT_PATH = "
  • 0
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值