一、前提
1、在Mac通过jps查看进程,保证如下五个进程存在
DataNode、NameNode、SecondaryNameNode、NodeManager、ResourceManager
2、准备要计算的文件
在项目根目路径下创建source/word文件夹,并创建words文件

文件内容如下
shanghai,5 shanghai,2 beijing,3 shanghai,1 beijing,6
二、程序及解析
1、mapper
package tmp;
import org.apache.hadoop.io.LongWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Mapper;
import java.io.IOException;
public class MyMapper extends Mapper<LongWritable, Text, Text, LongWritable> {
@Override
protected void map(LongWritable key, Text value, Context context) throws IOException, InterruptedException {
//value 为读入文件的行,每一行都会调用map方法
String[] split = valu

本文详细介绍了在Mac上使用IntelliJ IDEA运行WordCount MapReduce程序的步骤,包括确保Hadoop相关进程正常运行,创建并设置输入文件,解析mapper和reducer,启动计算以及查看和下载运行结果。同时,还提到了将输入文件上传到HDFS以及下载结果文件的方法。
最低0.47元/天 解锁文章
6533

被折叠的 条评论
为什么被折叠?



