1.首先确保mapred-site.xml里面有以下配置内容:
<property>
<name>yarn.app.mapreduce.am.env</name>
<value>HADOOP_MAPRED_HOME=${HADOOP_HOME}</value>
</property>
<property>
<name>mapreduce.map.env</name>
<value>HADOOP_MAPRED_HOME=${HADOOP_HOME}</value>
</property>
<property>
<name>mapreduce.reduce.env</name>
<value>HADOOP_MAPRED_HOME=${HADOOP_HOME}</value>
</property>
2. 准备数据文件:
cd $HADOOP_HOME
vim input1.txt
输入以下内容:
hello bigdata 2017
hello bigdata 2018
hello bigdata 2019
hello bigdata 2020
hello ynnu 2017
hello ynnu 2018
hello ynnu 2019
hello ynnu 2020
同样的操作创建input2.txt
3.HDFS上创建目录并且上传数据到HDFS:
hdfs dfs -mkdir /test
hdfs dfs -mkdir /test/input
上传:
hdfs dfs -copyFromLocal input1.txt /test/inpu
hdfs dfs -copyFromLocal input2.txt /test/inputt
查看上传的结果:
hdfs dfs -ls /test/input
4. 运行程序:
hadoop jar hadoop-mapreduce-examples-3.1.3.jar wordcount /test/input /test/output
(注意:output一定不是自己创建的,不需要自己创建)
5.查看生成的结果:
hdfs dfs -cat /test/output2/part-r-00000