/**
* hadoop经典入门wordcount 主要有三大步 1.编写mapper函数 2.编写reducer函数 3.配置
*/
public class WordCount {
/**
* mapper类
*
* 这些泛型继承自hadoop自定义的序列化框架Writable
* Hadoop使用自己的序列化框架以减少集群间,网络流量提高性能 也可以在这里使用avro的序列化框架
* avro的好处是语言无关,数据人类可读
*/
public static class SplitWordMapper extends Mapper<Object, Text, Text, IntWritable> {
private final static IntWritable one = new IntWritable(1);
private Text word = new Text();
/*
* hadoop经典入门wordcount 主要有三大步 1.编写mapper函数 2.编写reducer函数 3.配置
*/
public class WordCount {
/**
* mapper类
*
* 这些泛型继承自hadoop自定义的序列化框架Writable
* Hadoop使用自己的序列化框架以减少集群间,网络流量提高性能 也可以在这里使用avro的序列化框架
* avro的好处是语言无关,数据人类可读
*/
public static class SplitWordMapper extends Mapper<Object, Text, Text, IntWritable> {
private final static IntWritable one = new IntWritable(1);
private Text word = new Text();
/*