“脑子里想法,总是想去代码实现”
//用mapreduce来实现下面需求?
//现在有10个文件夹,每个文件夹都有1000000个url.现在让你找出top1000000url。
//方法一:
// 运用2个job,第一个job直接用filesystem读取10个文件夹作为map输入,url做key,
reduce计算url的sum,
// 下一个job map用url作key,运用sum作二次排序,reduce中取top10000000
// 1:首先进行wordcount计算
// 2:进行二次排序
// 如何启动两个job代码如下:
01
—
实现二次排序RawComparator接口
他与WritableComparator和Deserializer的关系图
02
—
开发源码(job2开发只提供了框架)
package demo03;import org.apache.hadoop.conf.Configuration;import org.apache.hadoop.fs.FileSystem;import org.apache.hadoop.fs.Path;import org.apache.hadoop.io.IntWritable;import org.apache.hadoop.io.RawComparator;import org.apache.hadoop.io.Text;import org.apache.hadoop.io.WritableUtils;import org.apache.hadoop.mapreduce.Job;import org.apache.hadoop.mapreduce.Mapper;import org.apache.hadoop.mapreduce.Reducer;import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;import org.apache.hadoop.mapreduce.lib.jobcontrol.ControlledJob;import org.apache.hadoop.mapreduce.lib.jobcontrol.JobControl;import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;import java.io.IOException;import java.util.Arrays;import java.util.StringTokenizer;/** * @author 张泰 * @Version v 1.0
|