【Spark亚太研究院-构建Spark集群-配置Hadoop伪分布模式并运行Wordcount(2)

执行文件拷贝操作

111133_HYJG_1791057.png

拷贝后的“input”文件夹的内容如下所示:

111133_1mxu_1791057.png

和我们的hadoop安装目录下的“conf”文件的内容是一样的。

现在,在我们刚刚构建的伪分布式模式下运行wordcount程序:

111134_UCP9_1791057.png

111136_LpB7_1791057.png

111139_Wsw7_1791057.png

运行完成后我们查看一下输出的结果:

111139_flVB_1791057.png

部分统计结果如下:

111140_YRRZ_1791057.png

此时我们到达Hadoop的web控制台会发现我们提交并成功的运行了任务:

111143_Be4i_1791057.png

最后在Hadoop执行完任务后,可以关闭Hadoop后台服务:

111147_Thjb_1791057.png

至此,Hadoop伪分布式环境的搭建和测试你完全成功!

至此,我们彻底完成了实验。

转载于:https://my.oschina.net/u/1791057/blog/307093

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值