一个Mapper对应一个碎片段。
import org.apache.hadoop.io.IntWritable; import org.apache.hadoop.io.LongWritable; import org.apache.hadoop.io.Text; import org.apache.hadoop.mapreduce.Mapper; import org.apache.hadoop.util.StringUtils; import java.io.IOException; /** * author: test * date: 2015/1/25. */ public class WordCountMapper extends Mapper<LongWritable, Text, Text, IntWritable> { /** * 输入: * 行所在的下标为key,类型为LongWritable * 行的内容为value,类型为Text * * 输出: * key: Text * value: IntWritable */ //此方法循环调用,从文件的split中,读取每行调用一次,把该行所在的下标为key,以该行的值(内容)为value,