参考文章:
http://blog.csdn.net/lifeifei2010/article/details/69396332
http://blog.csdn.net/xiaoxiangzi222/article/details/52757168
……
首先开启Hadoop服务(参照上一篇博客)
接下来:
1.进入hadoop的bin目录 在hdfs上创建一个新文件夹
hdfs dfs -mkdir -p /data/input
2.将当前目录中的某个txt文件复制到hdfs中(我复制的LICENSE.txt, 注意要确保当前目录中有该文件)
hdfs dfs -put LICENSE.txt /data/input
3.查看hdfs中是否有我们刚复制进去的文件
hdfs dfs ls /data/input
4.进入share的上层目录,提交单词统计任务
hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.8.1.jar wordcount /data/input /data/output/result
接着就会进行map和reduce
5.查看结果
hdfs dfs -cat /data/output/result/part-r-00000
OK,成功!