引子:
a) 排序的主要目的是在多数据组成情况下,灵活指定排序规则并展示数据
eg: <2,4,1>三数据组成的数据集合中,以row1asc , row2 desc, row3 asc方式展示所有结果
b)分组的主要目的是: 指定好key的分组规则(这个key可以是一个多数据组合成的一个类),
然后在reduce阶段会按照你指定的key的分组规则来讲对应value放在{}内,以实现你求最大,最小,平均值的目的
c)
reduce操作为不同map来源的数据提供了见面的机会,你可以理解为:
多分支的乡村公路是每一个独立的map,每条乡村公路中跑的不同牌子的汽车,乡村公路最后汇集到一个主动脉,国道,reduce是乡村公路交集的高速,只有在这条高速上,才能将所有车辆集合在一起
0 目的: row1表示部门号,row2表示部门开支,现在要按照部门号升序方式,展示出当前部门开支最小的结果
3,7
1,0
2,1
3,5
1,1
3,1
1 代码:
package group;
import java.io.DataInput;
import java.io.DataOutput;
import java.io.IOException;
import java.net.URI;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.LongWritable;
import org.apache.hadoop.io.RawComparator;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.io.WritableComparable;
import org.apache.hadoop.io.WritableComparator;
import org.apache.hadoop.mapreduce.Job;
import org.apache.hadoop.mapreduce.Mapper;
import org.apache.hadoop.mapreduce.Reducer;
import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
import org.apache.hadoop.mapreduce.lib.input.TextInputFormat;
import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;
import org.apache.hadoop.mapreduce.lib.output.TextOutputFormat;
import org.apache.hadoop.mapreduce.lib.partition.HashPartitioner;
/**
* @author zm
*
* 由要求分析如下:
* 1 必然以 row1来进行分组
* 2 必然也是以 row1,row2作为一个整体来进行比较才能有 当第一列相同时,在比较第二列的状态发生
* 3 mr中,执行流程是 文件通过InputFormat处理成--><k1,v1>--><k2,v2>--><k3,v3>
* 以 wordcount为例(hello you
* hello me
* <k1,v1>是<行号,文本>,在通过map方法处理后得到的 <hello,1> <you,1> <hello,1> <me,1>
* 后经过默认默认排序(以key1的asci码升序排),和默认分组(以key1的asci为基准分组)变成了<k2,v2> :
<hello,{1,1}> <me,{1}> <you,{1}>, 组是三个 但是记录仍旧是4条
* <k3,v3>是经过redecu()方法处理后,真正写出到hdfs文件的最终处理结果,
reduce操作
为不同map来源的数据提供了见面的机会,你可以理解为:
多分支的乡村公路是每一个独立的map,每条乡村公路中跑的不同牌子的汽车,乡村公路最后汇集到一个
主动脉,国道,reduce是乡村公路交集的高速,只有在这条高速上,才能将所有车辆集合在一起
, * 上述流程可知,先执行 map(),执行map()同时根据key执行排序,然后执行分组操作
*
* 结论:
* 1 基于需要 row1,row2作为一个整体来进行比较,因此自定义 NewK2,重写此类compareTo方法(这里使用升序方式) ,指定排序规则
* 2 排序后,实现分组时,因为此时的NewK2作为整体,如若用默认规则使用NewK2作为分组基准时,必然分组成6个组,因此指定自定义分组器取代默认规则,注意自定义分组器是对NewK2进行分组
*
* 执行过程中 key value变化:
* <k0,v0> --> <k1,v1>----> <k2,v2>---> <k3,v3>:
<行号,行内容> ---> <(3,3),3> <(3,2),2> <(3,1),1> <(2,2),2> <(2,2),1> <(1,1),1> --->自定义分组,针对newk2进行分组,
得到分组结果 <以3为row1的newk2,{3,2,1}> <以2为row1的newk2,{2,1}> <以1为row1的newk2,{1}>--->调用redece,得到<3,1> <2,1> <1,1>
*/
public class MyGroupApp {
static final String INPUT_PATH = "hdfs://master:9000/hello";
static final String OUT_PATH = "hdfs://master:9000/out";
public static void main(String[] args) throws Exception{
final Configuration configuration = new Configuration();
final FileSystem fileSystem = FileSystem.get(new URI(INPUT_PATH), configuration);
if(fileSystem.exists(new Path(OUT_PATH))){
fileSystem.delete(new Path(OUT_PATH), true);
}
final Job job = new Job(configuration, GroupApp.class.getSimpleName());
//1.1 指定输入文件路径
FileInputFormat.setInputPaths(job, INPUT_PATH);
//指定哪个类用来格式化输入文件
job.setInputFormatClass(TextInputFormat.class);
//1.2指定自定义的Mapper类
job.setMapperClass(MyMapper.class);
//指定输出<k2,v2>的类型
job.setMapOutputKeyClass(NewK2.class);
job.setMapOutputValueClass(LongWritable.class);
//1.3 指定分区类
job.setPartitionerClass(HashPartitioner.class);
job.setNumReduceTasks(1);
//1.4 TODO 排序 分组
job.setGroupingComparatorClass(MyGroupingComparator.class);
//1.5 TODO (可选)合并
//2.2 指定自定义的reduce类
job.setReducerClass(MyReducer.class);
//指定输出<k3,v3>的类型
job.setOutputKeyClass(LongWritable.class);
job.setOutputValueClass(LongWritable.class);
//2.3 指定输出到哪里
FileOutputFormat.setOutputPath(job, new Path(OUT_PATH));
//设定输出文件的格式化类
job.setOutputFormatClass(TextOutputFormat.class);
//把代码提交给JobTracker执行
job.waitForCompletion(true);
}
static class MyMapper extends Mapper<LongWritable, Text, NewK2, LongWritable>{
protected void map(LongWritable key, Text value, Context context) throws java.io.IOException ,InterruptedException {
final String[] splited = value.toString().split("\t");
final NewK2 k2 = new NewK2(Long.parseLong(splited[0]), Long.parseLong(splited[1]));
final LongWritable v2 = new LongWritable(Long.parseLong(splited[1]));
context.write(k2, v2);
};
}
static class MyReducer extends Reducer<NewK2, LongWritable, LongWritable, LongWritable>{
protected void reduce(NewK2 k2, java.lang.Iterable<LongWritable> v2s, Context context) throws java.io.IOException ,InterruptedException {
long min = Long.MAX_VALUE;
for (LongWritable v2 : v2s) {
if(v2.get()<min){
min = v2.get();
}
}
context.write(new LongWritable(k2.first), new LongWritable(min));
};
}
/**
* 问:为什么实现该类?
* 答:因为原来的v2不能参与排序,把原来的k2和v2封装到一个类中,作为新的k2
*
*/
static class NewK2 implements WritableComparable<NewK2>{
Long first;
Long second;
public NewK2(){}
public NewK2(long first, long second){
this.first = first;
this.second = second;
}
@Override
public void readFields(DataInput in) throws IOException {
this.first = in.readLong();
this.second = in.readLong();
}
@Override
public void write(DataOutput out) throws IOException {
out.writeLong(first);
out.writeLong(second);
}
/**
* 当k2进行排序时,会调用该方法.
* 当第一列不同时,升序;当第一列相同时,第二列升序
*/
@Override
public int compareTo(NewK2 o) {
final long minus = this.first - o.first;
if(minus !=0){
return (int)minus;
}
return (int)(this.second - o.second);
}
@Override
public int hashCode() {
return this.first.hashCode()+this.second.hashCode();
}
@Override
public boolean equals(Object obj) {
if(!(obj instanceof NewK2)){
return false;
}
NewK2 oK2 = (NewK2)obj;
return (this.first==oK2.first)&&(this.second==oK2.second);
}
}
/**
* 问:为什么自定义该类?
* 答:业务要求分组是按照第一列分组,但是NewK2的比较规则决定了不能按照第一列分。只能自定义分组比较器。
*/
static class MyGroupingComparator implements RawComparator<NewK2>{
@Override
public int compare(NewK2 o1, NewK2 o2) { // 此方法可以不用实现
return (int)(o1.first - o2.first);
}
// 第二种比较方式: 按照字节进行比较 主要用此方法来实现分组规则
/** 表示
* @param arg0 表示第一个参与比较的字节数组
* @param arg1 表示第一个参与比较的字节数组的起始位置
* @param arg2 表示第一个参与比较的字节数组的偏移量
*
* @param arg3 表示第二个参与比较的字节数组
* @param arg4 表示第二个参与比较的字节数组的起始位置
* @param arg5 表示第二个参与比较的字节数组的偏移量
*/
@Override // 8表示要进行比较的long的字节长度
public int compare(byte[] arg0, int arg1, int arg2, byte[] arg3,
int arg4, int arg5) {
return WritableComparator.compareBytes(arg0, arg1, 8, arg3, arg4, 8);
}
}
b1[s1:l1] 表示以s1开头,长度为l1的字符所代表的数组b1
b2[s2:l2] 表示以s2开头,长度为l2的字符所代表的数组b2
如果以第二列作为分组依据, 那么应该找对象第二列的属性代表的数组
b1[s1+8:8] 表示以s1+8开头,长度为8的字符所代表的数组b1 即第二个列的字节数组 定位到了第二列上
同样
b1[s2+8:8]
、、
}
2 结果:
[root@master local]# hadoop fs -text /out/part-r-00000
Warning: $HADOOP_HOME is deprecated.
1 0
2 1
3 1