实验三 MapReduce分布式编程、调试WordCount程序

这个实验是使用MapReduce分布式编程调试WordCount程序,主要做以下两个问题:在这里插入图片描述

一、所需系统及工具

HDFS 分布式存储系统

MapReduce 分布式计算系统

YARN hadoop 的资源调度系统

Common 以上三大组件的底层支撑组件,提供基础工具包和 RPC 框架等

二、了解一下HDFS中的常用的命令

-mkdir            在HDFS创建目录    hdfs dfs -mkdir /data
-ls               查看当前目录      hdfs dfs -ls /
-ls -R            查看目录与子目录
-put              上传一个文件      hdfs dfs -put data.txt /data/input
-moveFromLocal    上传一个文件,会删除本地文件:ctrl + X
-copyFromLocal    上传一个文件,与put一样
-copyToLocal      下载文件  hdfs dfs -copyToLocal /data/input/data.txt 
-get              下载文件  hdfs dfs -get /data/input/data.txt 
-rm               删除文件  hdfs dfs -rm /data/input/data.txt 
-getmerge         将目录所有的文件先合并,再下载
-cp               拷贝: hdfs dfs -cp /data/input/data.txt  /data/input/data01.txt 
-mv               移动: hdfs dfs -mv /data/input/data.txt  /data/input/data02.txt 
-count            统计目录下的文件个数
-text、-cat       查看文件的内容  hdfs dfs -cat /data/input/data.txt 

三、Mapreduce简介

3.1 Mapreduce编程模型

MapReduce采用”分而治之”的思想,把对大规模数据集的操作,分发给一个主节点管理下的各个分节点共同完成,然后通过整合各个节点的中间结果,得到最终结果。简单地说,MapReduce就是”任务的分解与结果的汇总”。

3.2 MapReduce工作原理

在这里插入图片描述

1.Mapper负责“分”

 分解计算任务,规模大大缩小;
“计算向数据靠近” ;
 这些小任务可以并行计算。

2.Reducer负责“汇总” map阶段的结果

3.MapReduce的输入输出

  <key,value>键值对

在这里插入图片描述

4.从启动和资源调度来看MapReduce过程

客户端(Client)
编写mapreduce程序,配置作业,提交作业,这就是程序员完成的工作。
JobTracker
JobTracker是一个后台服务进程,启动之后,会一直监听并接收来自各个TaskTracker发送的心跳信息,包括资源使用情况和任务运行情况等信息。
TaskTracker
TaskTracker是JobTracker和Task之间的桥梁。TaskTracker与JobTracker和Task之间采用了RPC协议进行通信。
HDFS
保存作业的数据、配置信息等等,最后的结果也是保存在hdfs上面

在这里插入图片描述

四、运行以下四个程序

4.1 在下图中没有报错的基础上在HDFSFilefExist.java程序上进行jar打包。

在这里插入图片描述

4.2 拖动生成default.package包

把HDFSFilefExist.java从hdfs.files包中拖出来,它会自动形成另一个包default.package。

4.3 生成jar包

4.3.1 选中default.package右击,选择导出——JAVA——JAR file——next

在这里插入图片描述

4.3.2 选择存放的路径,最后选择Finish,打包完成

在这里插入图片描述

五、传输和解压包(在SecureCRT中运行)

(1)将包传输到SecureCRT里,SecureCRT 【File】→【Connect SFTP Session】开启sftp操作
运行命令put C:mp,jar
(2)解压tar -zxvf mp.jar -C /home/shui

六、运行Wordcount程序

(1)运行cd /home/shui/hadoop-2.7.3/share/hadoop/mapreduce 转入wordcount所在路径。

(2)运行wordcount
hadoop jar mp.jar HDFSFileIfExist

运行成功之后,会出现文件已存在,说明架包成功,无错误,实验成功。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
WordCountMapReduce的经典案例之一,它可以统计文本中每个单词出现的次数。下面是WordCountMapReduce程序实现步骤: 1. Map阶段:将文本文件划分为若干个小块,每个小块由Map任务处理。Map任务读取文本文件中的每个单词,将单词作为Key,将出现次数作为Value,然后将Key-Value对发送给Reduce任务。 2. Reduce阶段:Reduce任务接收Map任务发送的Key-Value对,并将相同的单词的Value进行累加,得到最终的结果。Reduce任务将每个单词以及对应的出现次数输出到磁盘上。 下面是WordCount的Java代码实现: Map阶段: ```java public class WordCountMapper extends Mapper<LongWritable, Text, Text, IntWritable> { private Text word = new Text(); private final static IntWritable one = new IntWritable(1); public void map(LongWritable key, Text value, Context context) throws IOException, InterruptedException { String line = value.toString(); StringTokenizer tokenizer = new StringTokenizer(line); while (tokenizer.hasMoreTokens()) { word.set(tokenizer.nextToken()); context.write(word, one); } } } ``` Reduce阶段: ```java public class WordCountReducer extends Reducer<Text, IntWritable, Text, IntWritable> { private IntWritable result = new IntWritable(); public void reduce(Text key, Iterable<IntWritable> values, Context context) throws IOException, InterruptedException { int sum = 0; for (IntWritable val : values) { sum += val.get(); } result.set(sum); context.write(key, result); } } ``` 在MapReduce程序的主函数中,需要指定输入和输出路径,以及Map和Reduce任务的类: ```java public static void main(String[] args) throws Exception { Configuration conf = new Configuration(); Job job = Job.getInstance(conf, "word count"); job.setJarByClass(WordCount.class); job.setMapperClass(WordCountMapper.class); job.setCombinerClass(WordCountReducer.class); job.setReducerClass(WordCountReducer.class); job.setOutputKeyClass(Text.class); job.setOutputValueClass(IntWritable.class); FileInputFormat.addInputPath(job, new Path(args[0])); FileOutputFormat.setOutputPath(job, new Path(args[1])); System.exit(job.waitForCompletion(true) ? 0 : 1); } ``` 在执行MapReduce程序之前,需要将输入文件上传到HDFS上。然后,通过Hadoop命令行工具运行程序: ``` hadoop jar <jar文件路径> <main函数所在类名> <输入路径> <输出路径> ``` 其中,`<jar文件路径>`为编译后的jar包路径,`<main函数所在类名>`为包含主函数的类名,`<输入路径>`为输入文件所在的HDFS路径,`<输出路径>`为输出结果保存的HDFS路径。 执行完毕后,可以在输出路径中查看统计结果。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值