HADOOP的学习笔记 (第三期) eclipse 配置hadoop开发环境


前两期已经写了一些关于hadoop单机以及分布式的简单配置,下面就要开始写MR程序了。欲善其功必利其器,我们就先完善下工具。还是eclipse,用eclipse配置hadoop的开发

环境。为了这个配置环境我昨天忙了好久,经过不懈努力以及配合百度终于搞定了开发环境。


1.我们首先解压hadoop,我用的版本0.20.205,也正是因为此我付出了巨大的代价。按照一般网上的描述只需要将hadoop-0.20.205.0\contrib\eclipse-plugin copy到eclipse中plugin然后就ok了。其实上事实并非如此,如果有想法的可以尝试下,造成结果就是无限的连接不上,fail to login  或者一系列的缺少jar的的情况,究其原因是hadoop-eclipse-plugin-0.20.205.0.jar这个插件中缺少jar包,如图:此插件的lib中只有这两个文件,其实还是缺少了几个,这些jar在hadoop的lib中都可以找到,把这些jar包加入在修改mf文件即可。这里只是解释下原因,已经有一个修改好的jar包下载我提供这个即可。连接地址:http://download.csdn.net/detail/kobe_lzq/4670443。将这个jar放入到eclipse的plugin中。

2.打开eclipse。 点击那个java旁边的小东东,在出来的窗口中选择大象这个Map/Reduce。

3.这个时候细心的童鞋可能会看到左边栏多了一个DFS Locations以及,下面多了一个黄色的大象视图。

在黄色的大象中点击右键选择new Hadoop location 然后出现如下界面其中host是你的机器地址,是你hadoop环境的地址,我开了一台虚拟机上面跑着一个单机的hadoop环境,ip就是192.168.0.151至于端口号,应该能看出来就是你在core-site.xml和mapred-site.xml中配置的。user name就是你的用户,我用的是root用户,所以写的是root。然后再将hadoop.tmp.dir改成你core-site.xml中配置的tmp.dir如图:配置完以后点击finish。

4.配置完上述情况以后我们的环境基本就测试好了。左边的DFS Locations下回多出来一个蓝色的大象。下面是你的hdfs信息。如图:

至此环境基本搭建成功。后即的操作我还没有开始因为昨天光弄这个了。。。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值