【MapReduce】扩展案例 ---- TopN(求取数据集前N名)_topn maprreduce(3)

    this.upFlow = upFlow;
}

public long getDownFlow() {
    return downFlow;
}

public void setDownFlow(long downFlow) {
    this.downFlow = downFlow;
}

public long getSumFlow() {
    return sumFlow;
}

public void setSumFlow(long sumFlow) {
    this.sumFlow = sumFlow;
}

public void set(long upFlow1, long downFlow1) {
    upFlow = upFlow1;
    downFlow = downFlow1;
    sumFlow = upFlow+downFlow;
}

}


[**返回顶部**](#0)




---


#### ② Mapper 阶段


* **定义TreeMap集合**
* **读取数据、拆分、封装Bean对象**
* **以Bean对象为key,号码为value键值对存入TreeMap集合,按照自定义排序进行排序**
* **存入同时判断集合大小,以达到提取前n名的效果**
* **遍历集合写出到Reducer端**



package 第七章_MR扩展案例.TopN;

import org.apache.hadoop.io.LongWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Mapper;
import java.io.IOException;
import java.util.Iterator;
import java.util.TreeMap;

public class TopNMapper extends Mapper<LongWritable, Text, TopNBean, Text> {

// 1.定义一个treeMap作为存储数据的容器(自动按照key排序)
private TreeMap<TopNBean, Text> treeMap = new TreeMap<>();
TopNBean k;
Text v = new Text();
@Override
protected void map(LongWritable key, Text value, Context context) throws IOException, InterruptedException {

// 13470253144 180 180 360
// 13509468723 7335 110349 117684
k = new TopNBean();
// 1.读取一行数据
String line = value.toString();
// 2.拆分
String[] fields = line.split(“\t”);
// 3.封装Beand对象
long upFlow = Long.parseLong(fields[1]);
long downFlow = Long.parseLong(fields[2]);
long sumFlow = Long.parseLong(fields[3]);
k.setUpFlow(upFlow);
k.setDownFlow(downFlow);
k.setSumFlow(sumFlow);
String phone = fields[0];
v.set(phone);
// 4.向集合中添加元素
treeMap.put(k, v);
// 5.限制TreeMap的数量
if (treeMap.size() > 10) {
treeMap.remove(treeMap.lastKey()); // 删除最后一个
}
}
/**
* 重写cleanUp,统一释放资源
*
* @param context
* @throws IOException
* @throws InterruptedException
*/
@Override
protected void cleanup(Context context) throws IOException, InterruptedException {
// 6 遍历treeMap集合,输出数据
Iterator bean = treeMap.keySet().iterator();
while (bean.hasNext()) {
TopNBean k = bean.next();
context.write(k, treeMap.get(k));
}
}
}


##### ☠ 注意



// 1.定义一个treeMap作为存储数据的容器(自动按照key排序)
private TreeMap<TopNBean, Text> treeMap = new TreeMap<>();
TopNBean k;
Text v = new Text();
@Override
protected void map(LongWritable key, Text value, Context context) throws IOException, InterruptedException {
    // 创建Bean对象 
    k = new TopNBean();
    // 1.读取一行数据
    // 2.拆分
    // 3.封装Beand对象
    ......
    v.set(phone);
    // 4.向集合中添加元素
    treeMap.put(k, v);

**这个地方要重点关注,在`创建Bean对象k`的时候`要写在map()方法内部`,它是`针对每一次的map(),也就是每一行数据而言的`。当你每读取一行数据,就会封装一个Bean对象(需要内存地址不同),然后写入TreeMap集合;否则`定义在map()外面`,这样`k(Bean对象)就是全局变量,内存地址不会改变,针对每一行数据而言用的就是同一个Bean对象`,在`封装的时候对原有的Bean对象只是重新赋值,添加到TreeMap集合中的元素也始终只有一个`,最终结果只会输出最后一行数据。**


[**返回顶部**](#0)




---


#### ③ Reducer 阶段


* **拉取Mapper端数据集,同样创建TreeMapper集合**
* **遍历Mapper端数据集存入TreeMap集合,筛选前10条**
* **遍历TreeMap集合输出结果**



package 第七章_MR扩展案例.TopN;

import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Reducer;
import java.io.IOException;
import java.util.Iterator;
import java.util.TreeMap;

public class TopNReducer extends Reducer<TopNBean, Text, Text, TopNBean> {
// 定义一个TreeMap作为存储数据的容器(天然按key排序)
TreeMap<TopNBean, Text> flowMap = new TreeMap<>();
@Override
protected void reduce(TopNBean key, Iterable values, Context context) throws IOException, InterruptedException {
for (Text value : values) {
TopNBean bean = new TopNBean();
bean.set(key.getDownFlow(), key.getUpFlow());
// 1 向treeMap集合中添加数据
flowMap.put(bean, new Text(value));
// 2 限制TreeMap数据量,超过10条就删除掉流量最小的一条数据
if (flowMap.size() > 10) {
// flowMap.remove(flowMap.firstKey());
flowMap.remove(flowMap.lastKey());
}
}
}
@Override
protected void cleanup(Reducer<TopNBean, Text, Text, TopNBean>.Context context) throws IOException, InterruptedException {
// 3 遍历集合,输出数据
Iterator it = flowMap.keySet().iterator();
TopNBean key;
while (it.hasNext()) {
key = it.next();
Text value = flowMap.get(key);
context.write(value, key);
}
}
}


**Reducer阶段也是同样如此,他也要像Mapper阶段作相同的处理。原因是,数据集在开始处理之前会进行Split切片,切片的数量决定了MapTask开启的数量,本案例数据量很小,达不到切片的地步。假设文件200M,那就要分为两片,同时开启两个MapTask,每一个MapTask都会执行一次map()方法,都会各自写出各自那片数据集中的前10条数据,由于没有设定分区,所以默认为1。这样一来,Reducer端在去拉取数据的时候归并后就会有20条数据,但我们最终的目的是输出前10条,显然Reducer端需要读数据集再次进行处理。**


[**返回顶部**](#0)




---


#### ④ Driver 阶段


* **配置job参数**



package 第七章_MR扩展案例.TopN;

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Job;
import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;

public class TopNDriver {
public static void main(String[] args) {
Job job = null;
Configuration conf = new Configuration();
try {
// 获取job对象
job = Job.getInstance(conf);
// 配置
job.setMapperClass(TopNMapper.class);
job.setReducerClass(TopNReducer.class);
job.setJarByClass(TopNDriver.class);
job.setMapOutputKeyClass(TopNBean.class);
job.setMapOutputValueClass(Text.class);
job.setOutputKeyClass(Text.class);
job.setOutputValueClass(TopNBean.class);
// 设置输入输出路径
FileInputFormat.setInputPaths(job, new Path(“G:\Projects\IdeaProject-C\MapReduce\src\main\java\第二章_Hadoop序列化\output”));
FileOutputFormat.setOutputPath(job, new Path(“G:\Projects\IdeaProject-C\MapReduce\src\main\java\第七章_MR扩展案例\TopN\output1”));
// 提交job
boolean result = job.waitForCompletion(true);
System.exit(result ? 0 : 1);
} catch (Exception e) {
e.printStackTrace();
}
}
}


![在这里插入图片描述](https://img-blog.csdnimg.cn/20210107194237355.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3FxXzQ1Nzk3MTE2,size_16,color_FFFFFF,t_70#pic_center)


[**返回顶部**](#0)




---


### 总结


**首先我们来总结一下MapReduce的整体流程:**


![在这里插入图片描述](https://img-blog.csdnimg.cn/20210107205322608.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3FxXzQ1Nzk3MTE2,size_16,color_FFFFFF,t_70#pic_center)  
 **在本案例中,并没有涉及到分区,而是在map端封装好数据后,以自定义排好序的Bean对象为key,号码为value写入缓存区。在Reducer端拉取数据的时候,按照key进行分组(系统自动进行),相同的key进入同一个reduce()方法,在reduce方法内部遍历key的值,将其存入集合自动排序,最终形成不同Bean对象(不同key)组成的TreeMap集合,且排序筛选出前10名,输出。**


[**返回顶部**](#0)




---


## 修正


![在这里插入图片描述](https://img-blog.csdnimg.cn/c3cccfdfb8e147dc86bbf4bd0b9eb65e.png#pic_center)  
 **ok,很感谢最近一位细心的小伙伴在评论区指正了本文的错误,在最后的结果数据中,可以看到所有的电话列数据都是一样,确实有点问题。我试着打印输出中间的结果,最开始在Mapper这里就出现了问题:**  
 ![在这里插入图片描述](https://img-blog.csdnimg.cn/9e3face6826b4fb8b2c16cfb5011de8b.png#pic_center)  
 **可以发现我们在读取数据,拆分的时候都是没有问题的:**  
 ![在这里插入图片描述](https://img-blog.csdnimg.cn/7dcbbee1e72040a3835400962ca420ea.png#pic_center)  
 **那么问题应该是出现在存储进TreeMap的时候数据发生了覆盖!!!通过结果输出可以明显看到每一次的存入数据,都会使得value的值发生改变,并且是全部的value**




![img](https://img-blog.csdnimg.cn/img_convert/5a62230a849c58150bbe88f0c51d182e.png)
![img](https://img-blog.csdnimg.cn/img_convert/547596e469b8a333c45e4a329bd2e35a.png)

**网上学习资料一大堆,但如果学到的知识不成体系,遇到问题时只是浅尝辄止,不再深入研究,那么很难做到真正的技术提升。**

**[需要这份系统化资料的朋友,可以戳这里获取](https://bbs.csdn.net/topics/618545628)**


**一个人可以走的很快,但一群人才能走的更远!不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!**

-1714724931103)]
[外链图片转存中...(img-P3bDjaEG-1714724931104)]

**网上学习资料一大堆,但如果学到的知识不成体系,遇到问题时只是浅尝辄止,不再深入研究,那么很难做到真正的技术提升。**

**[需要这份系统化资料的朋友,可以戳这里获取](https://bbs.csdn.net/topics/618545628)**


**一个人可以走的很快,但一群人才能走的更远!不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!**

  • 15
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值