eclipse搭建hadoop开发环境

一、安装准备

1、JDK版本:jdk1.7.0
2、hadoop版本:hadoop-1.1.1(hadoop-1.1.1.tar.gz)
3、eclipse版本:Eclipse Java EE IDE for Web Developers.
  Version: Juno Service Release 1
4、eclipse与hadoop集成插件:hadoop-eclipse-plugin-1.1.1.jar
5、操作系统:ubuntu Server 12.04

一、在windows上通过WEB查看hadoop相关信息

1.修改C:\WINDOWS\system32\drivers\etc\hosts文件,加入主机名与IP对应关系:

2.访问:http://hadoop-master:50030 可以查看JobTracker的运行状态:

访问:http://hadoop-master:50070 可以查看NameNode及整个分布式文件系统的状态等:






3. 安装开发 hadoop 插件

将hadoop安装包hadoop\contrib\eclipse-plugin\hadoop-1.1.1-eclipse-plugin.jar拷贝到eclipse的插件目录plugins下。

需要注意的是插件版本(及后面开发导入的所有jar包)与运行的hadoop一致,否则可能会出现EOFException异常。

 

重启eclipse,打开windows->open perspective->other->map/reduce可以看到map/reduce开发视图。


4 .设置连接参数

打开windows->show view->other-> map/reduceLocations视图,在点击大象后弹出的对话框(General tab)进行参数的添加:





参数说明如下:

 Locationname:任意

  map/reduce master:与mapred-site.xml里面mapred.job.tracker设置一致。

DFSmaster:与core-site.xmlfs.default.name设置一致。

Username: 服务器上运行hadoop服务的用户名。

 

然后是打开“Advanced parameters”设置面板,修改相应参数。上面的参数填写以后,也会反映到这里相应的参数:

主要关注下面几个参数:

fs.defualt.name:与core-site.xmlfs.default.name设置一致。

mapred.job.tracker:与mapred-site.xml里面mapred.job.tracker设置一致。

dfs.replication:与hdfs-site.xml里面的dfs.replication一致。

hadoop.tmp.dir:与core-site.xmlhadoop.tmp.dir设置一致。

hadoop.job.ugi:并不是设置用户名与密码。是用户与组名,所以这里填写hadoop,hadoop


说明:第一次设置的时候可能是没有hadoop.job.ugidfs.replication参数的,不要紧,确认保存。打开Project ExplorerDFSLocations目录,应该可以年看到文件系统中的结构了。但是在/hadoop/mapred/system下却没有查看权限,如下图:






评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值