utuntu13.04系统下hadoop-1.1.2环境搭建及其eclipse插件使用

Hadoop-1.1.2搭建


1.软件准备

1.1.操作系统:ubuntu13.04 32

1.2.JDKjdk-6u45-linux-i586.bin

1.3.hadoophadoop-1.1.2.tar.gz

1.4.hadoop-1.1.2eclipse插件:hadoop-eclipse-plugin-1.1.2.jar

1.5.eclipseeclipse-java-galileo-SR2-linux-gtk.tar.gz96.9M

EclipseIDE for Java Developers

Buildid: 20100218-1602

(c)Copyright Eclipse contributors and others 2000, 2009. All rightsreserved.

Visithttp://eclipse.org/

Thisproduct includes software developed by the

ApacheSoftware Foundation http://apache.org/

将上述软件下载好之后放到home/work/yufan文件夹下没有文件夹自己新建即可

2.软件安装

2.1.安装前的准备:

2.1.1.新建软件安装目录:

2.1.1.1.ctrl+alt+t快捷键打开终端,输入命令cd../../ 按回车切换目录

2.1.1.2.输入命令sudomkdir programfiles 按回车新建文件夹programfiles,注

意期间需要输入当前登陆用户的密码验证

2.1.1.3.输入命令sudochmod 777 programfiles 按回车赋予文件夹操作权限

2.1.操作系统安装:略

2.2.JDK安装:

2.2.1.解压jdk安装文件:

2.2.1.赋予jdk安装文件的可执行权限:

输入命令:sudochmod 755

/home/yufan/work/jdk/jdk-6u45-linux-i586.bin回车

2.2.2.解压jdk安装文件

sudo-s /home/yufan/work/jdk/jdk-6u45-linux-i586.bin 回车

2.2.3.将解压后的文件剪切到programfiles文件夹下

2.3.hadoop安装:

2.3.1.解压hadoop压缩文件:

输入命令:tarzxvf /home/yufan/work/hadoop/hadoop-1.1.2.tar.gz 回车之后

会在hadoop目录下出现解压后的hadoop-1.1.2文件夹

2.3.2.将解压后的hadoop-1.1.2文件夹剪切到programfiles文件夹下

2.4.eclipse安装:

2.4.1.解压eclipse压缩文件:

输入命令:tarzxvf /home/yufan/work/eclipse/

eclipse-java-galileo-SR2-linux-gtk.tar.gz 回车之后会在hadoop 目录下出现解压后的eclipse文件夹

2.4.2.将解压后的eclipse文件夹剪切到programfiles文件夹下

2.4.3.一次打开文件夹programfileseclipse之后,在eclipse文件夹下有个eclipse

文件,右击该文件点击创建链接,见创建好后的eclipse链接拖拽到桌面

3.软件配置

3.1.jdk环境变量配置:

3.1.1.在终端中输入命令:sudogedit /etc/profile回车,可能要输入当前登陆用户的登 陆密码,打开profile之后,在profile末尾添加一下代码:

#setjava environment


exportJAVA_HOME=/programfiles/jdk1.6.0_45

exportCLASSPATH=.:$JAVA_HOME/lib:$JAVA_HOME/jre/lib:$CLASSPATH

exportPATH=$JAVA_HOME/bin:$PATH

ctrl+s保存之后即可

3.1.2.修改系统默认jdk

sudoupdate-alternatives –install /usr/bin/java

java/programfiles/jdk1.6.0_45/bin java 300

sudoupdate-alternatives –install /usr/bin/javac

java/programfiles/jdk1.6.0_45/bin javac 300

sudoupdate-alternatives –install /usr/bin/jar

java/programfiles/jdk1.6.0_45/bin jar 300

sudoupdate-alternatives –install /usr/bin/javah

java/programfiles/jdk1.6.0_45/bin javah 300

sudoupdate-alternatives –install /usr/bin/javap

java/programfiles/jdk1.6.0_45/bin javap 300

执行命令:sudoupdate-alternatives –config java来选择我们安装的jdk版本

3.2.hadoop环境变量配置:

在终端中输入命令:sudogedit /etc/profile回车,可能要输入当前登陆用户的登陆密码, 打开profile之后,在profile末尾添加一下代码:

#sethadoop

exportHADOOP_HOME=/programfiles/hadoop-1.1.2

exportPATH=$HADOOP_HOME/bin:$PATH

ctrl+s保存之后即可

打开/programfiles/hadoop-1.1.2/conf/mapred-site.xml文件,修改如下:

<configuration>

<property>

<name>mapred.job.tracker</name>

<value>localhost:9001</value>

</property>

</configuration>

打开/programfiles/hadoop-1.1.2/conf/hdfs-site.xml文件,修改如下:

<configuration>

<property>

<name>dfs.replication</name>

<value>1</value>

</property>

<property>

<name>dfs.permissions</name>

<value>false</value>

</property>

</configuration>

打开/programfiles/hadoop-1.1.2/conf/core-site.xml文件,修改如下:

<configuration>

<property>

<name>fs.default.name</name>

<value>hdfs://localhost:9000</value>

</property>

</configuration>

3.3.hadoop插件配置:

hadoop-eclipse-plugin-1.1.2.jar复制到/programfiles/eclipse/plugin文件下

打开eclipseWindow->Preference->HadoopMap/Reduce选项,点击Browse

/programfiles/hadoop-1.1.2目录,点击Apply,点击OK

点击eclipse左下角的Showview as a fast view->Other->MapReduce

Tools->Map/ReduceLocates,然后点击新建HadoopLocation(点击蓝色的大象即 可),General选项卡中,填写Locationnamehadoop(可随意填写),Map/ReduceMaster:Host:localhost,Port:9001,DFSMaster:Host:localhost,Port:9000 后点击Finish即可。

点击eclipse左下角的Showview as a fast view->Project Exporer,会出现DFS

Location选项,展开有只蓝色的大象名叫Hadoop,继续展开,会出现一个文件夹图表, 图标后边跟一个括号(1),继续展开文件夹。

此时很有可能会出现错误:Callto localhost/127.0.0.1:9000 failed on connection exception :java.net.ConnectException

解决办法:终端中输入命令:hadoopnamenode -format 回车 start-all.sh回车

此时很有可能会出现一下错误:localhost:ssh: connect to host localhost

port22: Connection refused

解决办法:运行命令:ps-e | grep ssh查看是否有sshd进程,如果没有,说明

server没启动,通过/etc/init.d/ssh-start 启动server进程,如果提示ssh 存在那么就是没安装server,通过sudoapt-get install openssh-server命令安

装即可此时很有可能会出现一下错误:localhost:Error: JAVA_HOME is not set.

解决办法:打开/programfiles/hadoop-1.1.2/conf/hadoop-env.sh加入

JAVA_HOME配置:exportJAVA_HOME=/programfiles/jdk1.6.0_45

之后重新运行hadoopnamenode -format 回车 start-all.sh回车即可然后在到

eclipse中的ProjectExporer中的DFSLocation上右键Disconnection断开,然 后右键refresh,然后逐一展开DFSLocation此时应该不会报错了,可以在文件夹图标 上右键新建文件夹,在该文件夹下右键上传一些文件应该是可以成功的。

4.hadoop设置相关

4.1.hadoop免登陆设置:

输入命令:ssh-keygen-t -rsa

提示:Generatingpublic/private rsa key pair.
Enterfile in which to save the key (/yufan/home/.ssh/id_rsa):

此处(/yufan/home/.ssh/id_rsa)中的内容与个人计算机安装时的设置有关,比如我的计算

机名字取的是yufan,那么此处提示就应该是/yufan/home/.ssh/id_rsa,将此括号中的内 容输入提示内容之后按回车

提示:Enterpassphrase (empty for nopassphrase):此处可以直接回车,也可以输入

类似于密码的个验证东东,为了方便可以直接回车

提示:Entersame passphraseagain:跟上面一样 直接回车搞定

复制公钥文件内容到相同目录下的authorized_keys文件中,命令如下:

cd~/.ssh/ 回车 catid_rsa.pub >> authorized_keys 回车即可

5.启动hadoop

在终端中输入hadoopnamenode -format 回车,格式化HDFS

在终端中输入start-all.sh启动hadoop

在浏览器输入以下网址查看启动成功与否

MapReduce:

http://localhost:50030

HDFS:

http://localhost:50070

如果能正常打开则说明启动成功:

注意,在此之前,如果你的hadoop安装目录下有之前对hadoop源码编译过,那么请将hadoop

录下的build文件夹删除,因为这样会影响HDFS的启动

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值