hadoop 1.0.0.3安装与配置,绝对实用

环境:操作系统Centos 6.2 64-bit --我采用的是最小安装

VMWare虚拟机4个,计划部署分配如下:

192.168.181.121 nameNode
192.168.181.122 dataNode
192.168.181.123 dataNode
192.168.181.124 dataNode

各dataNode机器,都需要安装jdk和ssh,同时要将nameNode上安装的hadoop分发到各节点机器,位置、环境变量等尽量保持与nameNode一致。


1、安装基础工具

  1. yum -y install wget  
  2. yum -y install make  
  3. yum -y install openssh*  
	yum -y install wget
	yum -y install make
	yum -y install openssh*


2、安装JDK

将下载源码包jdk-7u4-linux-x64.tar.gz
     
      放到目录:/usr/lib/jvm下(这里位置目录可以自己定义,JDK环境变量需要对应)


直接解压:

  1. tar zxvf jdk-7u4-linux-x64.tar.gz  
	tar zxvf jdk-7u4-linux-x64.tar.gz

3、安装hadoop-1.0.3.tar.gz

3.1、将下载包解压到根目录tar xzvf hadoop-1.0.3.tar.gz

3.2、修改hadoop-env.sh配置

  1.    
  2. vi conf/hadoop-env.sh  
           
          vi conf/hadoop-env.sh


# 找到JAVA_HOME设置:
  1. # The java implementation to use.  Required.  
  2.  export JAVA_HOME=/usr/lib/jvm/jdk1.7.0_04  
# The java implementation to use.  Required.
 export JAVA_HOME=/usr/lib/jvm/jdk1.7.0_04


# 在文件末尾加以下内容:
# 取消环境变量$HADOOP_HOME过时的警告
  1. export HADOOP_HOME_WARN_SUPPRESS=1  
export HADOOP_HOME_WARN_SUPPRESS=1


4、配置环境变量(集群节点都要配置环境变量)

  1. vi /etc/profile  
	vi /etc/profile

	
在文件中末尾加入以下内容:
  1.         export JAVA_HOME=/usr/lib/jvm/jdk1.7.0_04  
  2. export PATH=$JAVA_HOME/bin:$PATH  
  3. export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar  
  4. export HADOOP_HOME=/hadoop-1.0.3  
  5.     export PATH=$PATH:$HADOOP_HOME/bin  
     	export JAVA_HOME=/usr/lib/jvm/jdk1.7.0_04
	export PATH=$JAVA_HOME/bin:$PATH
	export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
	export HADOOP_HOME=/hadoop-1.0.3
    	export PATH=$PATH:$HADOOP_HOME/bin
让环境变量生效
  1. source /etc/profile  
	source /etc/profile
	

5、多节点集群配置

5.1、设置conf/masters文件内容

          指定masterNode,可以用IP,也可以用机器名,masters文件配置将决定哪台机器是secondaryNameNode,准确的说这个文件名起的不对,它应该叫secondaries。

  1. vi conf/masters  
  2.   
  3.   
  4. 192.168.181.221         # secondaryNameNode  
	vi conf/masters


	192.168.181.221			# secondaryNameNode
	

         其中192.168.181.221这个节点既是dataNode,同时也是secondaryNameNode

之前我这用的是默认的localhost,结果验证访问:http://192.168.181.221:50070/时报http-404错误,估计是域名解析的问题,网上推荐,masters和slaves文件里,使用机器名,这里我用IP。


5.2、设置conf/slaves文件内容,指定slavesNodes

  1. vi conf/slaves  
  2.   
  3. 192.168.181.222         # dataNode  
  4. 192.168.181.223         # dataNode  
  5. 192.168.181.224         # dataNode  
  6.   
	vi conf/slaves

	192.168.181.222			# dataNode
	192.168.181.223			# dataNode
	192.168.181.224			# dataNode
	
	

指定哪些机器为从节点,用于存储数据块。

5.3、配置文件:conf/hdfs-site.xml

  1. <?xml version="1.0"?>  
  2. <?xml-stylesheet type="text/xsl" href="configuration.xsl"?>  
  3.   
  4.   
  5. <!-- Put site-specific property overrides in this file. -->  
  6.   
  7.   
  8. <configuration>  
  9.         <property>  
  10.                 <name>dfs.name.dir</name>  
  11.                 <value>/HadoopRun/name1,/HadoopRun/name2</value>  
  12.         </property>  
  13.         <property>  
  14.                 <name>dfs.data.dir</name>  
  15.                 <value>/HadoopRun/data1,/HadoopRun/data2</value>  
  16.         </property>  
  17.         <property>  
  18.                 <name>dfs.replication</name>  
  19.                 <value>3</value>  
  20.         </property>  
  21. </configuration>  
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>


<!-- Put site-specific property overrides in this file. -->


<configuration>
        <property>
                <name>dfs.name.dir</name>
                <value>/HadoopRun/name1,/HadoopRun/name2</value>
        </property>
        <property>
                <name>dfs.data.dir</name>
                <value>/HadoopRun/data1,/HadoopRun/data2</value>
        </property>
        <property>
                <name>dfs.replication</name>
                <value>3</value>
        </property>
</configuration>

配置文件参数说明:
dfs.name.dir:NameNode上的本地文件路径,用于持久存储命名空间和日志信息文件等内容。该参数可以有多个值,值之间用逗号分割,表示文件映射关系信息将会被复制到每个目录中做冗余备份。

dfs.data.dir:DataNode上的本地文件路径,用于存放文件数据块。该参数可以有多个值,值之间用逗号分割,表示文件数据块将会被复制到每个目录中做冗余备份,通常配置为不同的设备

注意:这里的name1、name2、data1、data2目录不能预先创建,hadoop格式化时会自动创建,如果预先创建反而会有问题

dfs.replication:表示文件数据块要冗余备份的数量,默认值为3


5.4、配置文件:conf/mapred-site.xml

  1. <?xml version="1.0"?>  
  2. <?xml-stylesheet type="text/xsl" href="configuration.xsl"?>  
  3.   
  4.   
  5. <!-- Put site-specific property overrides in this file. -->  
  6.   
  7.   
  8. <configuration>  
  9.         <property>  
  10.                 <name>mapred.job.tracker</name>  
  11.                 <value>192.168.181.221:9001</value>  
  12.         </property>  
  13.         <property>  
  14.                 <name>mapred.local.dir</name>  
  15.                 <value>/HadoopRun/var</value>  
  16.         </property>  
  17.   
  18.   
  19. </configuration>  
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>


<!-- Put site-specific property overrides in this file. -->


<configuration>
        <property>
                <name>mapred.job.tracker</name>
                <value>192.168.181.221:9001</value>
        </property>
        <property>
                <name>mapred.local.dir</name>
                <value>/HadoopRun/var</value>
        </property>


</configuration>
配置文件参数说明:
mapred.job.tracker:JobTracker(任务分配管理)的主机(或者IP)和端口

mapred.local.dir:本地文件路径,用逗号分割的路径列表,是Map/Reduce临时数据存放的地方。

5.5、配置文件:conf/core-site.xml

  1. <?xml version="1.0"?>  
  2. <?xml-stylesheet type="text/xsl" href="configuration.xsl"?>  
  3.   
  4.   
  5. <!-- Put site-specific property overrides in this file. -->  
  6.   
  7.   
  8. <configuration>  
  9.         <property>  
  10.                 <name>fs.default.name</name>  
  11.                 <value>hdfs://192.168.181.221:9000</value>   
  12.         <description>  
  13.             NameNode的URI路径,格式:hdfs://主机名:端口/   
  14.         </description>  
  15.         </property>  
  16.     <property>  
  17.                 <name>fs.checkpoint.period</name>  
  18.                 <value>3600</value>  
  19.         <description>  
  20.             进行checkpoint的周期时间间隔,单位:秒  
  21.         </description>  
  22.         </property>  
  23.     <property>  
  24.                 <name>fs.checkpoint.size</name>  
  25.                 <value>67108864</value>  
  26.         <description>  
  27.             日志文件达到这个上限值时,将进行一次强制checkpoint操作,单位:byte    
  28.         </description>  
  29.         </property>  
  30.         <property>  
  31.                 <name>hadoop.tmp.dir</name>  
  32.                 <value>/HadoopRun/tmp</value>  
  33.         <description>  
  34.             Hadoop的默认临时路径,这个最好配置,如果在新增节点或者其他情况下莫名其妙的DataNode启动不了,就删除此文件中的tmp目录即可。不过如果删除了NameNode机器的此目录,那么就需要重新执行NameNode格式化的命令。/hadoopRun/tmp这里给的路径不需要创建会自动生成。  
  35.         </description>  
  36.         </property>  
  37. </configuration>  
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>


<!-- Put site-specific property overrides in this file. -->


<configuration>
        <property>
                <name>fs.default.name</name>
                <value>hdfs://192.168.181.221:9000</value>
		<description>
			NameNode的URI路径,格式:hdfs://主机名:端口/
  		</description>
        </property>
	<property>
                <name>fs.checkpoint.period</name>
                <value>3600</value>
		<description>
			进行checkpoint的周期时间间隔,单位:秒
  		</description>
        </property>
	<property>
                <name>fs.checkpoint.size</name>
                <value>67108864</value>
		<description>
			日志文件达到这个上限值时,将进行一次强制checkpoint操作,单位:byte  
  		</description>
        </property>
        <property>
                <name>hadoop.tmp.dir</name>
                <value>/HadoopRun/tmp</value>
		<description>
			Hadoop的默认临时路径,这个最好配置,如果在新增节点或者其他情况下莫名其妙的DataNode启动不了,就删除此文件中的tmp目录即可。不过如果删除了NameNode机器的此目录,那么就需要重新执行NameNode格式化的命令。/hadoopRun/tmp这里给的路径不需要创建会自动生成。
  		</description>
        </property>
</configuration>


6、使用ssh公钥密钥自动登陆linux服务器

实现原理
使用一种被称为"公私钥"认证的方式来进行ssh登录. "公私钥"认证方式简单的解释是
首先在客户端上创建一对公私钥 (公钥文件:~/.ssh/id_rsa.pub; 私钥文件:~/.ssh/id_rsa)
然后把公钥放到服务器上(~/.ssh/authorized_keys), 自己保留好私钥
当ssh登录时,ssh程序会发送私钥去和服务器上的公钥做匹配.如果匹配成功就可以登录了

这里nameNode服务器需要ssh无密码访问所有dataNode服务器。

6.1、在metaServer机器上生成公钥密钥对

问题:初次生成密钥时出错
  1. [root@gifer .ssh]# ssh-keygen  
  2. Generating public/private rsa key pair.  
  3. Enter file in which to save the key (/root/.ssh/id_rsa):  
  4. Enter passphrase (empty for no passphrase):  
  5. Enter same passphrase again:  
  6. open /root/.ssh/id_rsa failed: Permission denied.  
  7. Saving the key failed: /root/.ssh/id_rsa.  
[root@gifer .ssh]# ssh-keygen
Generating public/private rsa key pair.
Enter file in which to save the key (/root/.ssh/id_rsa):
Enter passphrase (empty for no passphrase):
Enter same passphrase again:
open /root/.ssh/id_rsa failed: Permission denied.
Saving the key failed: /root/.ssh/id_rsa.

SELINUX=enforcing问题导致密钥创建失败
  1. vi /etc/selinux/config  
vi /etc/selinux/config

  1. SELINUX=enforcing  
SELINUX=enforcing
改成

  1. SELINUX=disabled  
SELINUX=disabled
保存重启机器后,再生成。
  1. [root@gifer /]# ssh-keygen -t rsa  
  2. Generating public/private rsa key pair.  
  3. Enter file in which to save the key (/root/.ssh/id_rsa):  
  4. Enter passphrase (empty for no passphrase):  
  5. Enter same passphrase again:  
  6. Your identification has been saved in /root/.ssh/id_rsa.  
  7. Your public key has been saved in /root/.ssh/id_rsa.pub.  
  8. The key fingerprint is:  
  9. 98:3c:31:5c:23:21:73:a0:a0:1f:c6:d3:c3:dc:58:32 root@gifer  
  10. The key's randomart image is:  
  11. +--[ RSA 2048]----+  
  12. |.   E.=.o        |  
  13. |.o = @ o .       |  
  14. |. * * =          |  
  15. | o o o =         |  
  16. |  .   = S        |  
  17. |       .         |  
  18. |                 |  
  19. |                 |  
  20. |                 |  
  21. +-----------------+  
[root@gifer /]# ssh-keygen -t rsa
Generating public/private rsa key pair.
Enter file in which to save the key (/root/.ssh/id_rsa):
Enter passphrase (empty for no passphrase):
Enter same passphrase again:
Your identification has been saved in /root/.ssh/id_rsa.
Your public key has been saved in /root/.ssh/id_rsa.pub.
The key fingerprint is:
98:3c:31:5c:23:21:73:a0:a0:1f:c6:d3:c3:dc:58:32 root@gifer
The key's randomart image is:
+--[ RSA 2048]----+
|.   E.=.o        |
|.o = @ o .       |
|. * * =          |
| o o o =         |
|  .   = S        |
|       .         |
|                 |
|                 |
|                 |
+-----------------+
成功后,目录下会多出两个文件:
私钥文件:id_raa
公钥文件:id_rsa.pub

6.2、将公钥文件id_rsa.pub内容放到authorized_keys中

将生成的公钥文件默认在/root/.ssh/目录下
  1. [root@gifer .ssh]# cat id_rsa.pub >> authorized_keys  
[root@gifer .ssh]# cat id_rsa.pub >> authorized_keys
将文件内容追加到authorized_keys文件中,如果文件authorized_keys不存在,会自动创建。

同时,将id_rsa.pub文件内容,分发一份到其它dataNode机器
  1. [root@gifer .ssh]# ssh-copy-id -i id_rsa.pub  root@192.168.181.222  
[root@gifer .ssh]# ssh-copy-id -i id_rsa.pub  root@192.168.181.222


也可以使用scp命令进行复制

  1. [root@gifer .ssh]# scp authorized_keys  root@192.168.181.222:/root/.ssh/  
[root@gifer .ssh]# scp authorized_keys  root@192.168.181.222:/root/.ssh/

6.3、设置权限

.ssh 文件夹权限:700
authorized_keys文件权限:600

6.5、验证ssh登录是否成功

  1. [root@gifer .ssh]# ssh root@192.168.181.218  
  2. Last login: Mon May 21 18:24:21 2012 from 192.168.181.1  
[root@gifer .ssh]# ssh root@192.168.181.218
Last login: Mon May 21 18:24:21 2012 from 192.168.181.1

表示成功


root@192.168.181.218's password:  //如果还提示要输入密码,说明配置不成功,这个很可能是权限的问题


7、启动hadoop前,检查配置

7.1、将部署进行分发

使用scp命令,将弄好的hadoop-1.0.3文件夹复制一份,分发到各dataNode节点相同目录下:
  1. [root@gifer /]# scp -r  hadoop-1.0.3  192.168.181.222:/  
[root@gifer /]# scp -r  hadoop-1.0.3  192.168.181.222:/
 这里我当前192.168.181.221机器文件夹hadoop-1.0.3在根目录下,所以192.168.181.222上也是放根目录。scp 参数 -r  表示,如果目标目录已经存在文件,就覆盖它。否则会报错:not a regular file

如果配置做了修改,需要对更改的配置文件重新发布到各节点即可:
  1. [root@masterNode hadoop-1.0.3]# scp -r /hadoop-1.0.3/conf 192.168.181.222:/hadoop-1.0.3/  
[root@masterNode hadoop-1.0.3]# scp -r /hadoop-1.0.3/conf 192.168.181.222:/hadoop-1.0.3/


7.2、打开以下防火墙端口或关闭防火墙


图安全——开端口(所有节点机器,包括namenode):

  1. /sbin/iptables -I INPUT -p tcp --dport 9000 -j ACCEPT  
  2. /sbin/iptables -I INPUT -p tcp --dport 9001 -j ACCEPT  
  3. /sbin/iptables -I INPUT -p tcp --dport 37974 -j ACCEPT  
  4. /sbin/iptables -I INPUT -p tcp --dport 38840 -j ACCEPT  
  5. /sbin/iptables -I INPUT -p tcp --dport 49785 -j ACCEPT  
  6. /sbin/iptables -I INPUT -p tcp --dport 50030 -j ACCEPT  
  7. /sbin/iptables -I INPUT -p tcp --dport 50070 -j ACCEPT  
  8. /sbin/iptables -I INPUT -p tcp --dport 50090 -j ACCEPT  
  9. service iptables save  
/sbin/iptables -I INPUT -p tcp --dport 9000 -j ACCEPT
/sbin/iptables -I INPUT -p tcp --dport 9001 -j ACCEPT
/sbin/iptables -I INPUT -p tcp --dport 37974 -j ACCEPT
/sbin/iptables -I INPUT -p tcp --dport 38840 -j ACCEPT
/sbin/iptables -I INPUT -p tcp --dport 49785 -j ACCEPT
/sbin/iptables -I INPUT -p tcp --dport 50030 -j ACCEPT
/sbin/iptables -I INPUT -p tcp --dport 50070 -j ACCEPT
/sbin/iptables -I INPUT -p tcp --dport 50090 -j ACCEPT
service iptables save

 查看防火墙信息

  1. service iptables status  
service iptables status

图省事——关防火墙
  1. service iptables stop  
service iptables stop

8、安装启动hadoop系统

8.1、格式化一个新的分布式文件系统

  1. [root@masterNode /]# cd hadoop-1.0.3  
  2. [root@masterNode hadoop-1.0.3]# bin/hadoop namenode -format  
  3. 12/05/23 13:36:17 INFO namenode.NameNode: STARTUP_MSG:  
  4. /************************************************************ 
  5. STARTUP_MSG: Starting NameNode 
  6. STARTUP_MSG:   host = localhost/127.0.0.1 
  7. STARTUP_MSG:   args = [-format] 
  8. STARTUP_MSG:   version = 1.0.3 
  9. STARTUP_MSG:   build = https://svn.apache.org/repos/asf/hadoop/common/branches/branch-1.0 -r 1335192; compiled by 'hortonfo' on Tue May  8 20:31:25 UTC 2012 
  10. ************************************************************/  
  11. Re-format filesystem in /hadoop_home/name1 ? (Y or N) y  
  12. Format aborted in /hadoop_home/name1  
  13. 12/05/23 13:36:29 INFO namenode.NameNode: SHUTDOWN_MSG:  
  14. /************************************************************ 
  15. SHUTDOWN_MSG: Shutting down NameNode at localhost/127.0.0.1 
  16. ************************************************************/  
[root@masterNode /]# cd hadoop-1.0.3
[root@masterNode hadoop-1.0.3]# bin/hadoop namenode -format
12/05/23 13:36:17 INFO namenode.NameNode: STARTUP_MSG:
/************************************************************
STARTUP_MSG: Starting NameNode
STARTUP_MSG:   host = localhost/127.0.0.1
STARTUP_MSG:   args = [-format]
STARTUP_MSG:   version = 1.0.3
STARTUP_MSG:   build = https://svn.apache.org/repos/asf/hadoop/common/branches/branch-1.0 -r 1335192; compiled by 'hortonfo' on Tue May  8 20:31:25 UTC 2012
************************************************************/
Re-format filesystem in /hadoop_home/name1 ? (Y or N) y
Format aborted in /hadoop_home/name1
12/05/23 13:36:29 INFO namenode.NameNode: SHUTDOWN_MSG:
/************************************************************
SHUTDOWN_MSG: Shutting down NameNode at localhost/127.0.0.1
************************************************************/

看到以上输出表示格式化失败!格式化失败的原因是:我在目录/hadoop_home/下预先创建了文件夹:name1,所以出错了。这个格式化时会自动生成。

  1. [root@masterNode hadoop-1.0.3]# bin/hadoop namenode -format  
  2. 12/05/24 03:21:29 INFO namenode.NameNode: STARTUP_MSG:  
  3. /************************************************************ 
  4. STARTUP_MSG: Starting NameNode 
  5. STARTUP_MSG:   host = localhost/127.0.0.1 
  6. STARTUP_MSG:   args = [-format] 
  7. STARTUP_MSG:   version = 1.0.3 
  8. STARTUP_MSG:   build = https://svn.apache.org/repos/asf/hadoop/common/branches/branch-1.0 -r 1335192; compiled by 'hortonfo' on Tue May  8 20:31:25 UTC 2012 
  9. ************************************************************/  
  10. 12/05/24 03:21:29 INFO util.GSet: VM type       = 64-bit  
  11. 12/05/24 03:21:29 INFO util.GSet: 2% max memory = 19.33375 MB  
  12. 12/05/24 03:21:29 INFO util.GSet: capacity      = 2^21 = 2097152 entries  
  13. 12/05/24 03:21:29 INFO util.GSet: recommended=2097152, actual=2097152  
  14. 12/05/24 03:21:29 INFO namenode.FSNamesystem: fsOwner=root  
  15. 12/05/24 03:21:29 INFO namenode.FSNamesystem: supergroup=supergroup  
  16. 12/05/24 03:21:29 INFO namenode.FSNamesystem: isPermissionEnabled=true  
  17. 12/05/24 03:21:29 INFO namenode.FSNamesystem: dfs.block.invalidate.limit=100  
  18. 12/05/24 03:21:29 INFO namenode.FSNamesystem: isAccessTokenEnabled=false accessKeyUpdateInterval=0 min(s), accessTokenLifetime=0 min(s)  
  19. 12/05/24 03:21:29 INFO namenode.NameNode: Caching file names occuring more than 10 times  
  20. 12/05/24 03:21:30 INFO common.Storage: Image file of size 110 saved in 0 seconds.  
  21. 12/05/24 03:21:30 INFO common.Storage: Storage directory /hadoop_home/name1 has been successfully formatted.  
  22. 12/05/24 03:21:30 INFO common.Storage: Image file of size 110 saved in 0 seconds.  
  23. 12/05/24 03:21:30 INFO common.Storage: Storage directory /hadoop_home/name2 has been successfully formatted.  
  24. 12/05/24 03:21:30 INFO namenode.NameNode: SHUTDOWN_MSG:  
  25. /************************************************************ 
  26. SHUTDOWN_MSG: Shutting down NameNode at localhost/127.0.0.1 
  27. ************************************************************/  
[root@masterNode hadoop-1.0.3]# bin/hadoop namenode -format
12/05/24 03:21:29 INFO namenode.NameNode: STARTUP_MSG:
/************************************************************
STARTUP_MSG: Starting NameNode
STARTUP_MSG:   host = localhost/127.0.0.1
STARTUP_MSG:   args = [-format]
STARTUP_MSG:   version = 1.0.3
STARTUP_MSG:   build = https://svn.apache.org/repos/asf/hadoop/common/branches/branch-1.0 -r 1335192; compiled by 'hortonfo' on Tue May  8 20:31:25 UTC 2012
************************************************************/
12/05/24 03:21:29 INFO util.GSet: VM type       = 64-bit
12/05/24 03:21:29 INFO util.GSet: 2% max memory = 19.33375 MB
12/05/24 03:21:29 INFO util.GSet: capacity      = 2^21 = 2097152 entries
12/05/24 03:21:29 INFO util.GSet: recommended=2097152, actual=2097152
12/05/24 03:21:29 INFO namenode.FSNamesystem: fsOwner=root
12/05/24 03:21:29 INFO namenode.FSNamesystem: supergroup=supergroup
12/05/24 03:21:29 INFO namenode.FSNamesystem: isPermissionEnabled=true
12/05/24 03:21:29 INFO namenode.FSNamesystem: dfs.block.invalidate.limit=100
12/05/24 03:21:29 INFO namenode.FSNamesystem: isAccessTokenEnabled=false accessKeyUpdateInterval=0 min(s), accessTokenLifetime=0 min(s)
12/05/24 03:21:29 INFO namenode.NameNode: Caching file names occuring more than 10 times
12/05/24 03:21:30 INFO common.Storage: Image file of size 110 saved in 0 seconds.
12/05/24 03:21:30 INFO common.Storage: Storage directory /hadoop_home/name1 has been successfully formatted.
12/05/24 03:21:30 INFO common.Storage: Image file of size 110 saved in 0 seconds.
12/05/24 03:21:30 INFO common.Storage: Storage directory /hadoop_home/name2 has been successfully formatted.
12/05/24 03:21:30 INFO namenode.NameNode: SHUTDOWN_MSG:
/************************************************************
SHUTDOWN_MSG: Shutting down NameNode at localhost/127.0.0.1
************************************************************/

格式化分布式文件系统成功。


8.2、启动hadoop服务

启动hdfs守护进程
  1. [root@masterNode hadoop-1.0.3]#  bin/start-dfs.sh      
  2. starting namenode, logging to /hadoop-1.0.3/libexec/../logs/hadoop-root-namenode-masterNode.out  
  3. 192.168.181.224: starting datanode, logging to /hadoop-1.0.3/libexec/../logs/hadoop-root-datanode-node3.out  
  4. 192.168.181.222: starting datanode, logging to /hadoop-1.0.3/libexec/../logs/hadoop-root-datanode-node1.out  
  5. 192.168.181.223: starting datanode, logging to /hadoop-1.0.3/libexec/../logs/hadoop-root-datanode-node2.out  
  6. 192.168.181.221: starting secondarynamenode, logging to /hadoop-1.0.3/libexec/../logs/hadoop-root-secondarynamenode-masterNode.out  
[root@masterNode hadoop-1.0.3]#  bin/start-dfs.sh    
starting namenode, logging to /hadoop-1.0.3/libexec/../logs/hadoop-root-namenode-masterNode.out
192.168.181.224: starting datanode, logging to /hadoop-1.0.3/libexec/../logs/hadoop-root-datanode-node3.out
192.168.181.222: starting datanode, logging to /hadoop-1.0.3/libexec/../logs/hadoop-root-datanode-node1.out
192.168.181.223: starting datanode, logging to /hadoop-1.0.3/libexec/../logs/hadoop-root-datanode-node2.out
192.168.181.221: starting secondarynamenode, logging to /hadoop-1.0.3/libexec/../logs/hadoop-root-secondarynamenode-masterNode.out

启动mapreduce守护进程
  1. [root@masterNode hadoop-1.0.3]#  bin/start-mapred.sh  
  2. starting jobtracker, logging to /hadoop-1.0.3/libexec/../logs/hadoop-root-jobtracker-masterNode.out  
  3. 192.168.181.223: starting tasktracker, logging to /hadoop-1.0.3/libexec/../logs/hadoop-root-tasktracker-node2.out  
  4. 192.168.181.222: starting tasktracker, logging to /hadoop-1.0.3/libexec/../logs/hadoop-root-tasktracker-node1.out  
  5. 192.168.181.224: starting tasktracker, logging to /hadoop-1.0.3/libexec/../logs/hadoop-root-tasktracker-node3.out  
[root@masterNode hadoop-1.0.3]#  bin/start-mapred.sh
starting jobtracker, logging to /hadoop-1.0.3/libexec/../logs/hadoop-root-jobtracker-masterNode.out
192.168.181.223: starting tasktracker, logging to /hadoop-1.0.3/libexec/../logs/hadoop-root-tasktracker-node2.out
192.168.181.222: starting tasktracker, logging to /hadoop-1.0.3/libexec/../logs/hadoop-root-tasktracker-node1.out
192.168.181.224: starting tasktracker, logging to /hadoop-1.0.3/libexec/../logs/hadoop-root-tasktracker-node3.out
注:对于命令bin/start-all.sh(启动所有守护进程)在hadoop-1.0.3版本中已不推荐使用了。

8.3、验证安装是否成功

使用jps命令查看启动的守护进程有哪些:

  1. [root@masterNode hadoop-1.0.3]# jps  
  2. 12275 NameNode  
  3. 12445 SecondaryNameNode  
  4. 12626 Jps  
  5. 12529 JobTracker  
  6.   
  7.   
  8. [root@node3 ~]# jps  
  9. 6621 DataNode  
  10. 6723 TaskTracker  
  11. 6819 Jps  
[root@masterNode hadoop-1.0.3]# jps
12275 NameNode
12445 SecondaryNameNode
12626 Jps
12529 JobTracker


[root@node3 ~]# jps
6621 DataNode
6723 TaskTracker
6819 Jps

另外可通过浏览器访问:

NameNode            http://192.168.181.221:50070/

JobTracker http://192.168.181.221:50030/

8.4、关闭hadoop服务

关闭hdfs守护进程
  1. [root@masterNode hadoop-1.0.3]#  bin/stop-dfs.sh      
  2. stopping namenode  
  3. 192.168.181.222: stopping datanode  
  4. 192.168.181.224: stopping datanode  
  5. 192.168.181.223: stopping datanode  
  6. 192.168.181.221: stopping secondarynamenode  
[root@masterNode hadoop-1.0.3]#  bin/stop-dfs.sh    
stopping namenode
192.168.181.222: stopping datanode
192.168.181.224: stopping datanode
192.168.181.223: stopping datanode
192.168.181.221: stopping secondarynamenode

关闭mapreduce守护进程
  1. [root@masterNode hadoop-1.0.3]#  bin/stop-mapred.sh  
  2. stopping jobtracker  
  3. 192.168.181.222: stopping tasktracker  
  4. 192.168.181.224: stopping tasktracker  
  5. 192.168.181.223: stopping tasktracker  
[root@masterNode hadoop-1.0.3]#  bin/stop-mapred.sh
stopping jobtracker
192.168.181.222: stopping tasktracker
192.168.181.224: stopping tasktracker
192.168.181.223: stopping tasktracker
注:对于命令bin/stop-all.sh(关闭所有守护进程)在hadoop-1.0.3版本中已不推荐使用了。


8.5、文件上传测试

略……


安装过程遇到的问题:

1、想在分布式文件系统中创建一个目录input,结果报错:

  1. [root@masterNode hadoop-1.0.3]# bin/hadoop fs -mkdir input  
  2. mkdir: org.apache.hadoop.hdfs.server.namenode.SafeModeException: Cannot create directory /user/root/input. Name node is in safe mode.  
[root@masterNode hadoop-1.0.3]# bin/hadoop fs -mkdir input
mkdir: org.apache.hadoop.hdfs.server.namenode.SafeModeException: Cannot create directory /user/root/input. Name node is in safe mode.
解决办法:关闭安全模式

  1. [root@masterNode hadoop-1.0.3]# bin/hadoop dfsadmin -safemode leave  
  2. Safe mode is OFF  
[root@masterNode hadoop-1.0.3]# bin/hadoop dfsadmin -safemode leave
Safe mode is OFF



  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值