相信绝大多数程序员在看到 HelloWorld这个词的时候,总会情不自禁的翘起嘴角吧!虽然早已离开了校园,但每每看到这个词,我总会自然而然地想起曾经和我的那群“狐朋狗友”在大学里肆无忌惮敲代码的日子。。。
似乎有点跑题了(尴尬脸),看了上篇的原理,是不是手痒,想来操作一下了!
https://blog.csdn.net/Forever_ck/article/details/84589932
下面我们就来看看MapReduce里的“helloworld”,也就是WorldCount。
先来看下需求: 统计一堆文件中单词出现的个数
分析:
首先我们需要准备一点数据,并按照 mapreduce 编程规范,分别编写 Mapper,Reducer,Driver。
一、编写 mapper 类
package com.ck
import java.io.IOException;import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.LongWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Mapper;
public class WordcountMapper extends Mapper<LongWritable, Text, Text, IntWritable>{
Text k = new Text();
IntWritable v = new IntWritable(1);
@Override
protected voi