【Spark亚太研究院系-构建Spark集群-配置Hadoop单机模式并运行Wordcount(2)

2.安装rsync

我们的Ubuntu 12.10版本默认安装了rsync,我们可以通过以下命令来安装或者更新rsync

145958_zi3e_1791057.png

3.安装hadoop,家林把下载下来的最新稳定版本的hadoop保存在电脑本地的以下位置:

145958_MVTd_1791057.png

创建/usr/local/hadoop目录并把下载下来的Hadoop解压/usr/local/hadoop中:

145958_0B1r_1791057.png

145959_jAs4_1791057.png

4.在hadoop-env.sh配置Java安装信息.

进入/usr/local/Hadoop/Hadoop-1.2.1/conf

145959_GD22_1791057.png

打开hadoop-env.sh:

145959_QVmi_1791057.png

按下回车即可进入该配置文件:

150000_BqEV_1791057.png

在前面我们安装Java的时候把Java安装在了“/usr/lib/java/jdk1.7.0_60”,此时我们在hadoop-env.sh配置文件加入如下配置信息

150000_sxJO_1791057.png

保存退出.

使用source命令使hadoop-env.sh配置信息生效:

150001_AU6W_1791057.png

此时Hadoop的单机模式配置成功!

为了方便我们在开机启动后也可以立即使用Hadoop的bin目录下的相关命令,可以把bin目录配置到“~/.bashrc”文件中,此时开启启动后系统自动读取“~/.bashrc”文件的内容,我就就可以随时使用Hadoop的命令了:

150001_c9oZ_1791057.png

修改后的文件内容:

150001_NrVr_1791057.png

保存退出,使用下面的命令使配置生效:

150002_t4sd_1791057.png

5.验证Hadoop的版本信息,使用“hadoop version”命令即可:

150002_Jrq0_1791057.png

6.运行Hadoop自带的WordCount例子:

首先在hadoop的目录下创建一个input目录并把conf下的所有文件copy到该目录下,需要如下命令即可:

150003_7iZS_1791057.png

使用hadoop命令运行自带的wordcount程序并把结果输出到output中:

150003_nvhx_1791057.png

运行过程如下:

150350_qc6a_1791057.png

一直运行知道完成(因为运行过程有些长,中间省略了一些运行过程,只截取了开始和结束部分):

150604_0Gve_1791057.png

查看运行结果:

150604_IvfW_1791057.png

该命令执行后即显示出Wordcount运行input中若干个文件中单词统计结果,如下所示(直截取了其中一部分):

150605_q6c3_1791057.png

至此,单机模式的构建、配置和运行测试彻底成功!

 

转载于:https://my.oschina.net/u/1791057/blog/301544

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值