目录
一、问题介绍
(一)案例分析
1. TopN分析法介绍
TopN分析法是指从研究对象中按照某一个指标进行倒序或正序排列,取其中所需的N个数据,并对这N个数据进行重点分析的方法。
2. 案例需求及分析
先假设有数据文件num.txt,现要求使用MapReduce技术提取上述文本中最大的5个数据,并最终将结果汇总到一个文件中。
(1) 先设置MapReduce分区为1,即ReduceTask个数一定只有一个。我们需要提取TopN,即全局的前N条数据,不管中间有几个Map、Reduce,最终只能有一个用来汇总数据。
(2) 在Map阶段,使用TreeMap数据结构保存TopN的数据,TreeMap默认会根据其键的自然顺序进行排序,也可根据创建映射时提供的 Comparator进行排序,其firstKey()方法用于返回当前集合最小值的键。
(3) 在Reduce阶段,将Map阶段输出数据进行汇总,选出其中的TopN数据,即可满足需求。这里需要注意的是,TreeMap默认采取正序排列,需求是提取5个最大的数据,因此要重写Comparator类的排序方法进行倒序排序。
(二)案例实现
1. Map阶段实现
使用Eclipse开发工具打开之前创建的Maven项目HadoopDemo,并且新建cn.itcast.mr.topN包,在该路径下编写自定义Mapper类TopNMapper,主要用于将文件中的每行数据进行切割提取,并把数据保存到TreeMap中,判断TreeMap是否大于5,如果大于5就需要移除最小的数据。TreeMap保存了当前文件最大5条数据后,再输出到Reduce阶段。
2. Reduce阶段实现
根据Map阶段的输出结果形式,同样在cn.itcast.mr.topN包下,自定义Reducer类TopNReducer,主要用于编写TreeMap自定义排序规则,当需求取最大值时,只需要在compare()方法中返回正数即可满足倒序排列,reduce()方法依然是要满足时刻判断TreeMap中存放数据是前五个数,并最终遍历输出最大的5个数。
3. Driver程序主类实现
编写MapReduce程序运行主类TopNDriver,主要用于对指定的本地D:\\topN\\input目录下的源文件(需要提前准备)实现TopN分析,得到文件中最大的5个数,并将结果输入到本地D:\\topN\\output目录下。
4. 效果测试
为了保证MapReduce程序正常执行,需要先在本地D:\\topN\\input目录下创建文件num.txt;然后,执行MapReduce程序的程序入口TopNDriver类,正常执行完成后,在指定的D:\\topN\\output目录下生成结果文件。
二、完整代码
num.txt
10 3 8 7 6 5 1 2 9 4
11 12 17 14 15 20
19 18 13 16
1、TopNMapper.java
package cn.itcast.mr.topN;
import java.io.IOException;
import java.util.TreeMap;
import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.LongWritable;
import org.apache.hadoop.io.NullWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Mapper;
public class TopNMapper extends Mapper<LongWritable, Text, NullWritable, IntWritable>{
private TreeMap<Integer, String> repToRecordMap = new TreeMap<Integer, String>();
protected void map(LongWritable key, Text value, Mapper<LongWritable, Text, NullWritable, IntWritable>.Context context)throws IOException, InterruptedException {
String line = value.toString();
String[] nums = line.split(" ");
for (String num :nums) {
repToRecordMap.put(Integer.parseInt(num),"");
if(repToRecordMap.size()>5) {
repToRecordMap.remove(repToRecordMap.firstKey());
}
}
}
protected void cleanup (Mapper<LongWritable, Text, NullWritable, IntWritable>.Context context) {
for(Integer i : repToRecordMap.keySet()) {
try {
context.write(NullWritable.get(), new IntWritable(i));
}catch(Exception e) {
e.printStackTrace();
}
}
}
}
2、 TopNReducer.java
package cn.itcast.mr.topN;
import java.io.IOException;
import java.util.Comparator;
import java.util.TreeMap;
import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.NullWritable;
import org.apache.hadoop.mapreduce.Reducer;
public class TopNReducer extends Reducer<NullWritable, IntWritable, NullWritable, IntWritable> {
private TreeMap<Integer, String> repToRecordMap = new TreeMap<Integer, String>(new Comparator<Integer>() {
public int compare(Integer a, Integer b) {
return b-a;
}
});
@Override
public void reduce(NullWritable key, Iterable<IntWritable> values, Reducer<NullWritable, IntWritable, NullWritable, IntWritable>.Context context) throws IOException, InterruptedException {
for(IntWritable value :values) {
repToRecordMap.put(value.get(),"");
if(repToRecordMap.size()>5) {
repToRecordMap.remove(repToRecordMap.firstKey());
}
}
for(Integer i:repToRecordMap.keySet()) {
context.write(NullWritable.get(), new IntWritable(i));
}
}
}
3、TopNDriver.java
package cn.itcast.mr.topN;
import java.io.IOException;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.NullWritable;
import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;
import org.apache.hadoop.mapreduce.Job;
public class TopNDriver {
public static void main(String[] args) throws IOException, ClassNotFoundException, InterruptedException {
Configuration conf = new Configuration();
Job job = Job.getInstance(conf);
job.setJarByClass(TopNDriver.class);
job.setMapperClass(TopNMapper.class);
job.setReducerClass(TopNReducer.class);
//设置输出类型
job.setOutputKeyClass(NullWritable.class);
job.setOutputValueClass(IntWritable.class);
//设置输入和输出目录
FileInputFormat.addInputPath(job, new Path("F:\\topN\\input"));
FileOutputFormat.setOutputPath(job, new Path("F:\\topN\\output"));
System.exit(job.waitForCompletion(true) ? 0 : 1);
}
}