5. hadoop安装包
master结点上,将其解压到/home/zhm/hadoop下。
6. JDK/Hadoop路径配置
将JDK解压在/opt/jdk1.7.0*目录下。然后,修改/etc/profile文件,在最后添加:
然后,执行如下操作让配置立即生效,即:
该操作,要在每个结点上配置(其它结点的hadoop在后面会复制过来)。
若出现如下问题:
解决办法:
1)通过which java命令,发现java是/usr/bin下,而不是在咱自己放java的地方。即:
2)在profile文件中,修改PATH。将$JAVA_HOME/bin放在$PATH前。
7. hadoop配置文件(/hadoop/conf文件夹下 master结点)
· core-site.xml
· hdfs-site.xml
· mapred-site.xml
· hadoop-env.sh
· masters
· salves
salve1
salve2
8. 向其它结点复制hadoop,即:
这样其它结点也就装好hadoop了。
9. 格式化namenode(master机)
执行:hadoop namenode –format,若出现如下错误:
则执行:hdfs namenode –format。若出现如下错误:
则:一般是etc/profile中配置jdk和hadoop路径错误。如下位执行格式化:
上面不出现错误,并有“successfully formatted”,则格式化正确。
10. 启动hadoop(master结点)
执行:start-all.sh或start-dfs.sh、start-mapred.sh。即:
若出现“Temporary failure in name resolution”错误,即
可能原因:配置"/etc/hosts"局域网的DNS失效。
解决办法:1>其实,masters和salves文件有两种配置方式,即主机名方式和ip地址方式。即:
为保险起见,使用第二种。因为万一忘记配置"/etc/hosts"局域网的DNS失效,这样就会出现意想不到的错误,但是一旦IP配对,网络畅通,就能通过IP找到相应主机。
11. 验证hadoop是否成功启动
方法1:使用jps命令。即:
若不能识别jps命令,即:
解决办法:jps命令在jdk下的bin目录下的一个可执行文件。通过在etc/profile下加一行:
如果出现错误:“no datanode stop, no tasknode stop”。原因:重新格式化hadoop会出现该错误。修改办法:格式化前,将三个结点中的name和data中的文件都删除掉。
方法二:使用“hadoop dfsadmin –report”命令。查看Hadoop集群的状态。即:
12. 网页查看集群
http:192.10.5.76:50030
http:192.10.5.76:50070
OK!