调用MapReduce对文件中各个单词出现次数进行统计

本文介绍了在Ubuntu Kylin环境下,使用Hadoop MapReduce统计文件中单词出现次数的实验过程。包括环境配置、Hadoop的安装与配置、Java环境的设置、Hadoop伪分布式配置、MapReduce程序的编写、编译与运行。最终,通过Eclipse实现WordCount程序,将结果输出到HDFS并下载到本地。
摘要由CSDN通过智能技术生成

调用MapReduce对文件中各个单词出现次数进行统计
实验配置:系统:Ubuntu Kylin | 环境:Hadoop | 软件:Eclipse

要求
1.将待分析的文件(不少于10000英文单词)上传到HDFS
2.调用MapReduce对文件中各个单词出现的次数进行统计
3.将统计结果下载本地。

一、安装Ubuntu
在学习Hadoop方面,推荐个人在学习生活中使用Ubuntu,所以本实验采用Ubuntu 。

二、准备工作
1.创建Hadoop账户
1.打开终端窗口,输入如下命令创建新用户 :
sudo useradd -m hadoop -s /bin/bash
创建了可以登陆的 hadoop 用户,并使用 /bin/bash 作为 shell。
2.设置hadoop密码 :
sudo passwd hadoop
3.为hadoop用户增加管理员权限:
sudo adduser hadoop sudo
最后注销当前用户选择选择刚创建的 hadoop 用户进行登陆。
4.更新 apt
用 hadoop 用户登录后,先更新一下 apt,后续将使用 apt 安装软件,如果没更新可能有一些软件安装不了。按 ctrl+alt+t 打开终端窗口,执行如下命令:
sudo apt-get update
5.安装vim
后续需要更改一些配置文件,这里采用的是 vim(vi增强版,基本用法相同),相对于vi更有辨识度,编辑起来更好用。
sudo apt-get install vim
6.配置SSH
集群、单节点模式都需要用到 SSH 登陆(类似于远程登陆,你可以登录某台 Linux 主机,并且在上面运行命令),Ubuntu 默认已安装了 SSH client,此外还需要安装 SSH server
sudo apt-get install openssh-server
安装后,可以使用如下命令登陆本机:
ssh localhost在这里插入图片描述
首先退出刚才的 ssh,就回到了我们原先的终端窗口,然后利用 ssh-keygen 生成密钥,并将密钥加入到授权中:
exit # 退出刚才的 ssh localhost
cd ~/.ssh/ # 若没有该目录,请先执行一次ssh localhost
ssh-keygen -t rsa # 会有提示,都按回车就可以
cat ./id_rsa.pub >> ./authorized_keys # 加入授权
此时再用 ssh localhost 命令,无需输入密码就可以直接登陆了,如下图所示。
在这里插入图片描述

三.安装Java环境
1.安装JDK
Hadoop3.1.3需要JDK版本在1.8及以上。需要按照下面步骤来自己手动安装JDK1.8。
接下来在Linux命令行界面中,执行如下Shell命令
cd /usr/lib
sudo mkdir jvm #创建/usr/lib/jvm目录用来存放JDK文件
cd ~ #进入hadoop用户的主目录
cd Downloads #注意区分大小写字母,刚才已经通过FTP软件把JDK安装包jdk-8u162-linux-x64.tar.gz上传到该目录下
sudo tar -zxvf ./jdk-8u162-linux-x64.tar.gz -C /usr/lib/jvm #把JDK文件解压到/usr/lib/jvm目录下
2.验证JDK安装情况
JDK文件解压缩以后,可以执行如下命令到/usr/lib/jvm目录查看一下:
cd /usr/lib/jvm
ls
3.设置JAVA坏境变量
cd ~
vim ~/.bashrc
通过vim编辑器。打开环境变量配置.bashrc文件,在文件开头添加如下几行内容:
export JAVA_HOME=/usr/lib/jvm/jdk1.8.0_162
export JRE_HOME= J A V A H O M E / j r e e x p o r t C L A S S P A T H = . : {JAVA_HOME}/jre export CLASSPATH=.: JAVAHOME/jreexp

首先,你需要编写 MapReduce 程序来对文件单词出现次数进行统计。下面是一个简单的示例程序: ```java import java.io.IOException; import java.util.StringTokenizer; import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.fs.Path; import org.apache.hadoop.io.IntWritable; import org.apache.hadoop.io.LongWritable; import org.apache.hadoop.io.Text; import org.apache.hadoop.mapreduce.Job; import org.apache.hadoop.mapreduce.Mapper; import org.apache.hadoop.mapreduce.Reducer; import org.apache.hadoop.mapreduce.lib.input.FileInputFormat; import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat; public class WordCount { public static class TokenizerMapper extends Mapper<LongWritable, Text, Text, IntWritable>{ private final static IntWritable one = new IntWritable(1); private Text word = new Text(); public void map(LongWritable key, Text value, Context context) throws IOException, InterruptedException { StringTokenizer itr = new StringTokenizer(value.toString()); while (itr.hasMoreTokens()) { word.set(itr.nextToken()); context.write(word, one); } } } public static class IntSumReducer extends Reducer<Text,IntWritable,Text,IntWritable> { private IntWritable result = new IntWritable(); public void reduce(Text key, Iterable<IntWritable> values, Context context) throws IOException, InterruptedException { int sum = 0; for (IntWritable val : values) { sum += val.get(); } result.set(sum); context.write(key, result); } } public static void main(String[] args) throws Exception { Configuration conf = new Configuration(); Job job = Job.getInstance(conf, "word count"); job.setJarByClass(WordCount.class); job.setMapperClass(TokenizerMapper.class); job.setCombinerClass(IntSumReducer.class); job.setReducerClass(IntSumReducer.class); job.setOutputKeyClass(Text.class); job.setOutputValueClass(IntWritable.class); FileInputFormat.addInputPath(job, new Path(args[0])); FileOutputFormat.setOutputPath(job, new Path(args[1])); System.exit(job.waitForCompletion(true) ? 0 : 1); } } ``` 在这个程序,`TokenizerMapper` 类将输入文件的每行按空格分割为单词,然后将每个单词作为键,将值设置为 `1`,并发射到上下文。 `IntSumReducer` 类对每个键的值进行求和,并将结果输出。 在 `main` 方法,我们设置了 Mapper 和 Reducer 类、输入和输出路径,并启动了我们的作业。 接下来,你可以通过以下步骤使用 IntelliJ IDEA 来运行该程序: 1. 打开 IntelliJ IDEA,并创建一个新项目。 2. 将上述代码复制到新项目的 `WordCount.java` 文件。 3. 点击菜单栏的 `File -> Project Structure`,在弹出的窗口选择 `Libraries`,然后点击 `+` 按钮添加 Hadoop JARs。 4. 在 `Project Structure` 窗口选择 `Artifacts`,然后点击 `+` 按钮添加一个可执行的 JAR 文件。 5. 在 `Main Class` 输入 `WordCount`,然后点击 `OK`。 6. 点击菜单栏的 `Build -> Build Artifacts`,然后选择 `Build`。 7. 在 `out/artifacts/WordCount_jar` 目录下找到生成的 JAR 文件。 8. 在命令行输入以下命令来运行程序: ``` hadoop jar WordCount.jar <input_file_path> <output_directory_path> ``` 注意,你需要将 `<input_file_path>` 替换为包含输入文件的路径,将 `<output_directory_path>` 替换为输出目录的路径。 当作业完成后,你可以在输出目录找到一个包含单词计数的文件
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值