hadoop集群运行WordCount案例

1.在Hadoop根目录创建目录

hdfs  dfs -mkdir -p /cpm/input

2.上传文件到/cpm/input

hdfs dfs -put [文件目录,如./test.txt] /cpm/input/

3. 在Hadoop根目录运行Word Count程序

hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.8.5.jar wordcount [刚刚上传的文件路径,如/cpm/test.txt] [输出目录,不能是存在的,他自己会自动创建,如/cpm/output]

4. 查看运行结果,Windows打开连接查看

http://192.168.43.21:50070/explorer.html#/cpm/output

5.使用命令查看运行结果

hdfs  dfs -cat /cpm/output/part-r-00000

6.输出如下

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

进击的小绵羊

c币是什么

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值