Hadoop 2.X伪分布式环境搭建和测试

我用的jdk版本是1.7,Hadoop版本是2.5.0。

一,配置core-site.xml,目录在etc/hadoop下:


默认hdfs地址为主机名+端口号(固定是8020端口)

二:在当前目录下新建data目录,进入data目录,新建tmp目录,如图所示:

三,在core-site.xml配置文件中配置新建好的tmp目录,这个属性设置namenode和datanode存放元数据目录时会用到,所以最好用自己的。如下图所示:

 

 

四:用命令  bin/hdfs查看hdfs是否配置成功,如果成功,会显示hdfs的参数列表:


五:格式化namenode数据:

  运行命令 bin/hdfs  namenode –format,(注意:namenode只在初始时格式化,之后不要轻易格式化,否则元数据会丢失)结果如下图所示:


六:启动namenode和datanode:

 格式化成功后,运行命令 :sbin/hadoop-daemon.sh  start namenode 和sbin/hadoop-daemon.sh start  datanode,通过命令jps查看结果,成功后如下图所示:

 

也可以通过hdfs的web界面查看,访问地址zpl-hadoop:50070(主机名+50070端口),如下图所示:

 

创建自己的目录: bin/hdfs   dfs   mkdir -p  /user/zpl/,成功后在web页面可以看到:

在hadoop目录下有wcinput目录,里面有测试文件wc.input,将wc.input上传到文件目录下 : bin/hdfs   dfs  -put wcinput/wc.input       /user/zpl/mapreduce/wordcount/input,查看运行结果,如下图所示:

 

也可以通过web页面进行查看

 

 

 

 

 

运行mapreduce示例jar包,命令:bin/hadoop   jar    share/hadoop/mapreduce/hadoop-mapreduce-examples-2.5.0.jar      wordcount        /user/zpl/mapreduce/wordcount/input/        /user/zpl/mapreduce/wordcount/output

 

运行成功后如下图所示:


查看结果:bin/hdfs dfs -cat /user/zpl/mapreduce/wordcount/output/part*,各个单词统计结果正确。


  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值