搭建Hadoop 2.2.0版本HDFS的HA配置

      搭建Hadoop 2.2.0版本HDFS的HA配置


Hadoop中的NameNode好比是人的心脏,非常重要,绝对不可以停止工作。在hadoop1时代,只有一个NameNode。如果该NameNode数据丢失或者不能工作,那么整个集群就不能恢复了。这是hadoop1中的单点问题,也是hadoop1不可靠的表现。hadoop2就解决了这个问题。


     hadoop2.2.0中HDFS的高可靠指的是可以同时启动2个NameNode。其中一个处于工作状态,另一个处于随时待命状态。这样,当一个NameNode所在的服务器宕机时,可以在数据不丢失的情况下,手工或者自动切换到另一个NameNode提供服务。这些NameNode之间通过共享数据,保证数据的状态一致。多个NameNode之间共享数据,可以通过Nnetwork File System或者Quorum Journal Node。前者是通过linux共享的文件系统,属于操作系统的配置;后者是hadoop自身的东西,属于软件的配置。我们这里讲述使用Quorum Journal Node的配置方式,方式是手工切换。


集群启动时,可以同时启动2个NameNode。这些NameNode只有一个是active的,另一个属于standby状态。active状态意味着提供服务,standby状态意味着处于休眠状态,只进行数据同步,时刻准备着提供服务
 
   架构


在一个典型的HA集群中,每个NameNode是一台独立的服务器。在任一时刻,只有一个NameNode处于active状态,另一个处于standby状态。其中,active状态的NameNode负责所有的客户端操作,standby状态的NameNode处于从属地位,维护着数据状态,随时准备切换。


两个NameNode为了数据同步,会通过一组称作JournalNodes的独立进程进行相互通信。当active状态的NameNode的命名空间有任何修改时,会告知大部分的JournalNodes进程。standby状态的NameNode有能力读取JNs中的变更信息,并且一直监控edit log的变化,把变化应用于自己的命名空间。standby可以确保在集群出错时,命名空间状态已经完全同步了
 
为了确保快速切换,standby状态的NameNode有必要知道集群中所有数据块的位置。为了做到这点,所有的datanodes必须配置两个NameNode的地址,发送数据块位置信息和心跳给他们两个。


对于HA集群而言,确保同一时刻只有一个NameNode处于active状态是至关重要的。否则,两个NameNode的数据状态就会产生分歧,可能丢失数据,或者产生错误的结果。为了保证这点,JNs必须确保同一时刻只有一个NameNode可以向自己写数据。




下面主要给大家说下搭建Hadoop 2.2.0版本HDFS的HA配置


 安装配置jdk,SSH


一.首先,先搭建五台小集群,虚拟机的话,创建五个


下面为这五台机器分别分配IP地址及相应的角色:集群有个特点,三五机子用户名最好一致,要不你就创建一个组,把这些用户放到组里面去,我这五台的用户名都是hadoop,主机名随意起


 192.168.5.25-----namenode1(主机),主机namenode,zookeeper,journalnode,zkfc----namenode1(主机名)


 192.168.5.26-----namenode2(从机),备机namenode,zookeeper,journalnode,zkfc-----namenode2(主机名)


 192.168.5.27-----datanode(从机),datanode,zookeeper,journalnode-----datanode(主机名)


 192.168.5.28-----datanode2(从机),datanode,zookeeper,journalnode-----datanode2(主机名)


 192.168.5.29-----datanode3(从机),datanode,zookeeper,journalnode-----datanode3(主机名)


 如果用户名不一致,你就要创建一个用户组,把用户放到用户组下面:


 sudo addgroup hadoop     创建hadoop用户组


 sudo adduser -ingroup hadoop one  创建一个one用户,归到hadoop组下


 二.由于用户是普通用户,没有root一些权限,所以修改hadoop用户权限
 用root权限,修改sudoers文件


 nano    /etc/sudoers   打开文件,修改hadoop用户权限,如果你创建的是one用户,就one ALL=(ALL:ALL) ALL
 


三.在这五台机子上分别设置/etc/hosts及/etc/hostname


hosts这个文件用于定于主机名与IP地址之间的对用关系


sudo -i  获取最高权限


nano /etc/hosts:


  


 ctrl+o:保存,然后回车,ctrl+x:退出


hostname 这个文件用于定义主机名的,


注意:主机是主机名,从机就是从机名,例如:datanode在这里就是datanode 


 
然后你可以输入:ping namenode2,看能不能ping通


 四.要在这五台机子上均安装jdk,ssh,并配置好环境变量,五台机子都是这个操作:


做好准备工作,下载jdk-7u3-linux-i586.tar 这个软件包


1.sudo apt-get install openssh-server    下载SSH


   ssh     查看,代表安装成功
 
 2.  tar zxvf jdk-7u3-linux-i586.tar.gz 解压jdk


 3.sudo nano /etc/profile,在最下面加入这几句话,保存,这是配置java环境变量


4.source  /etc/profile  使其配置生效


 验证jdk是否安装成功,敲命令


5.java -version     可以看到JDK版本信息,代表安装成功


  


 6:配置SSH  免密码登陆,记住,这是在hadoop用户下执行的


ssh-keygen   -t     rsa       之后一路回 车(产生秘钥,会自动产生一个.ssh文件


 
  8.cd   .ssh  进入ssh文件


    cp  id_rsa.pub   authorized_keys   把id_rsa.pub 追加到授权的 key 里面去


 9. ssh localhost     此时已经可以进行ssh localhost的无密码登陆


 
或者 ls  .ssh/      看看有没有那几个文件


  


10.拷贝id_rsa.pub文件到其他机器


 192.168.5.25  操作:


scp  .ssh/id_rsa.pub   192.168.56.101:/usr/local/hadoop/.ssh/102.pub


scp  .ssh/id_rsa.pub   192.168.5.27: /usr/local/hadoop/.ssh/25.pub


scp  .ssh/id_rsa.pub   192.168.5.28: /usr/local/hadoop/.ssh/25.pub


scp  .ssh/id_rsa.pub   192.168.5.29: /usr/local/hadoop/.ssh/25.pub


 192.168.5.26  操作:


scp  .ssh/id_rsa.pub 192.168.5.25: /usr/local/hadoop/.ssh/26.pub


scp  .ssh/id_rsa.pub 192.168.5.27:/ usr/local/hadoop/.ssh/26.pub


scp  .ssh/id_rsa.pub 192.168.5.28: /usr/local/hadoop/.ssh/26.pub


scp  .ssh/id_rsa.pub 192.168.5.29: /usr/local/hadoop/.ssh/26.pub


 192.168.5.27  操作:


scp  .ssh/id_rsa.pub 192.168.5.25: /usr/local/hadoop/.ssh/27.pub


scp  .ssh/id_rsa.pub 192.168.5.26: /usr/local/hadoop/.ssh/27.pub


scp  .ssh/id_rsa.pub 192.168.5.28: /usr/local/hadoop/.ssh/27.pub


scp  .ssh/id_rsa.pub 192.168.5.29: /usr/local/hadoop/.ssh/27.pub


 192.168.5.28  操作:


scp  .ssh/id_rsa.pub 192.168.5.25: /usr/local/hadoop/.ssh/28.pub


scp  .ssh/id_rsa.pub 192.168.5.26: /usr/local/hadoop/.ssh/28.pub


scp  .ssh/id_rsa.pub 192.168.5.27: /usr/local/hadoop/.ssh/28.pub


scp  .ssh/id_rsa.pub 192.168.5.29: /usr/local/hadoop/.ssh/28.pub


 


 192.168.5.29  操作:


scp  .ssh/id_rsa.pub 192.168.5.25: /usr/local/hadoop/.ssh/29.pub


scp  .ssh/id_rsa.pub 192.168.5.26: /usr/local/hadoop/.ssh/29.pub


scp  .ssh/id_rsa.pub 192.168.5.27: /usr/local/hadoop/.ssh/29.pub


scp  .ssh/id_rsa.pub 192.168.5.28: /usr/local/hadoop/.ssh/29.pub


11.公钥都追加到 那个授权文件里


在192.168.5.25机子上操作:


cat  .ssh/102.pub >> .ssh/authorized_keys


cat  .ssh/27.pub >> .ssh/authorized_keys


cat  .ssh/28.pub >> .ssh/authorized_keys


cat  .ssh/29.pub >> .ssh/authorized_keys


在192.168.5.26机子上操作:


cat  .ssh/25.pub >> .ssh/authorized_keys


cat  .ssh/27.pub >> .ssh/authorized_keys


cat  .ssh/28.pub >> .ssh/authorized_keys


cat  .ssh/29.pub >> .ssh/authorized_keys


在192.168.0.27机子上操作:


cat  .ssh/25.pub >> .ssh/authorized_keys


cat  .ssh/26.pub >> .ssh/authorized_keys


cat  .ssh/28.pub >> .ssh/authorized_keys


cat  .ssh/29.pub >> .ssh/authorized_keys


验证ssh 192.168.0.26 hostname


namenode2


                                                                                   搭建Zookeeper集群


1.下载zookeeper-3.4.5版本:zookeeper-3.4.5.tar.gz,我是放在/home/hadoop下面


tar  zxvf  zookeeper-3.4.5.tar.gz       直接进行解压


 2.配置etc/profile 


sudo nano  etc/profile      在末尾加入下面配置


export ZOOKEEPER_HOME=/usr/local/hadoop/zookeeper-3.4.5 


export PATH=$ZOOKEEPER_HOME/bin:$ZOOKEEPER_HOME/conf:$PATH


source /etc/profile    使其配置生效


3.配置zookeeper-3.4.5/conf/zoo.cfg文件,这个文件本身是没有的,有个zoo_sample.cfg模板


 cd    zookeeper-3.4.5/conf      进入conf目录


 cp  zoo_sample.cfg   zoo.cfg     拷贝模板


 sudo nano  zoo.cfg       修改zoo.cfg文件如下


---------------------------------------------------------------------------------------------------


# The number of milliseconds of each tick


tickTime=2000


# The number of ticks that the initial


# synchronization phase can take


initLimit=10


# The number of ticks that can pass between


# sending a request and getting an acknowledgement


syncLimit=5


# the directory where the snapshot is stored.


# do not use /tmp for storage, /tmp here is just


# example sakes.


dataDir=/home/hadoop/zookeeper-3.4.5/data


# the port at which the clients will connect


clientPort=2181


#


# Be sure to read the maintenance section of the # administrator guide before turning on autopurge.


#


# http://zookeeper.apache.org/doc/current/zookeeperAdmin.html#sc_maintenance


#


# The number of snapshots to retain in dataDir


#autopurge.snapRetainCount=3


# Purge task interval in hours


# Set to "0" to disable auto purge feature


#autopurge.purgeInterval=1


server.1=namenode1:2888:3888


server.2=namenode2:2888:3888


server.3=datanode:2888:3888


server.4=datanode1:2888:3888


server.5=datanode2:2888:3888


------------------------------------------------------------------------------------------------------




注意:创建dataDir参数指定的目录,创建data文件夹,在这个文件夹下,还要创建一个文本myid


cd  /home/hadoop/zookeeper-3.4.5


mkdir  data     创建data


cd  /home/hadoop/zookeeper-3.4.5/data     进入data文件夹下
touch  myid   创建文本myid,在这个文本内写入1,因为server.1=namenode1:2888:3888 server指定的是1,如果一会在其余机子配置,namenode2下面的myid是2,datanode下面myid是3,datanode1下面myid是4,datanode下面myid是5,这些都是根据server来的。




4.主机配置完以后,把zookeeper复制给其余机子


scp -r zookeeper-3.4.5  hadoop@namenode2:/home/hadoop/


scp  -r zookeeper-3.4.5  hadoop@datanode:/home/hadoop/


scp  -r zookeeper-3.4.5  hadoop@datanode1:/home/hadoop/


scp  -r zookeeper-3.4.5  hadoop@datanode2:/home/hadoop/


记住:::::修改从机的myid.从机也要配置etc/profile


5.启动zookeeper,先hadoop集群启动


zkServer.sh  start     这个启动是主机从机都要输入启动命令


bin/zkServer.sh  status 在不同的机器上使用该命令,其中二台显示follower,一台显示leader


 zkCli.sh  -server 192.168.5.26:2181  启动客户端脚本


 
quit   退出


help  可是查看帮助命令


这样zookeeper集群就配置完了


                                                                            配置hadoop集群2.2.0版本HDFS的HA配置


1.我把hadoop文件放在 /usr/local/hadoop路径下,首先先进行解压


tar  zxvf  hadoop.tar.gz


2.hadoop配置过程,


配置之前,需要在hadoop本地文件系统创建以下文件夹:


/dfs/name


/dfs/data


/tmp/journal


给这些文件要赋予权限


sudo chmod 777 tmp/


sudo chmod 777 dfs/


 这里要涉及到的配置文件有7个:


~/hadoop/etc/hadoop/hadoop-env.sh


~/hadoop/etc/hadoop/yarn-env.sh


~/hadoop/etc/hadoop/slaves


~/hadoop/etc/hadoop/core-site.xml


~/hadoop/etc/hadoop/hdfs-site.xml


~/hadoop/etc/hadoop/mapred-site.xml


~/hadoop/etc/hadoop/yarn-site.xml




以上个别文件默认不存在的,可以复制相应的template文件获得。


例如mapred-site.xml不存在


cd /usr/local/hadoop/hadoop/etc/hadoop    进入到hadoop配置文件的目录中


cp  mapred-site.xml.template   mapred-site.xml    复制相应的模板文件


 3.配置hadoop-env.sh




sudo nano  /usr/local/hadoop/hadoop/etc/hadoop/hadoop-env.sh


export JAVA_HOME=/home/hadoop/jdk1.7.0_03   配置jdk


 4.配置yarn-env.sh


sudo nano  /home/hadoop/hadoop/etc/hadoop/yarn-env.sh


export JAVA_HOME=/home/hadoop/jdk1.7.0_03   配置jdk


 5.配置slaves,写入一下内容


datanode


datanode1


datanode2


6.配置core-site.xml


<configuration>
 <property>
     <name>fs.defaultFS</name>  //fs.defaultFS 客户端连接HDFS时,默认的路径前缀。跟配置hdfs-site.xml中nameservice ID的值是一致的


      <value>hdfs://mycluster</value>
  </property>
  <property>
     <name>io.file.buffer.size</name>
     <value>131072</value>
  </property>
  <property>
     <name>hadoop.tmp.dir</name>
     <value>file:/home/hadoop/tmp</value>
  </property>
  <property>
     <name>hadoop.proxyuser.hadoop.hosts</name>
     <value>*</value>
  </property>
  <property>
     <name>hadoop.proxyuser.hadoop.groups</name>
     <value>*</value>
  </property>
   <property>
     <name>ha.zookeeper.quorum</name>
     <value>192.168.5.25:2181,192.168.5.26:2181,192.168.5.27:2181,192.168.5.28:2181,192.168.5.29:2181</value>
  </property>
  <property>
     <name>ha.zookeeper.session-timeout.ms</name>
     <value>1000</value>
  </property>
</configuration>


7.配置hdfs-site.xml


<configuration>
   <property>
      <name>dfs.namenode.name.dir</name>
      <value>file:/home/hadoop/dfs/name</value>
   </property>
   <property>
      <name>dfs.datanode.data.dir</name>
      <value>file:/home/hadoop/dfs/data</value>
   </property>
   <property>
      <name>dfs.replication</name>
      <value>3</value>
   </property>
   <property>
      <name>dfs.webhdfs.enabled</name>
      <value>true</value>
   </property>
    <property>
      <name>dfs.permissions</name>
      <value>false</value>
   </property>
     <property>
      <name>dfs.permissions.enabled</name>
      <value>false</value>
   </property>
     <property>
      <name>dfs.nameservices</name>    //dfs.nameservices命名空间的逻辑名称,如果使用HDFS Federation,可以配置多个命名空间的名称,使用逗号分开即可。
      <value>mycluster</value>     
   </property>
     <property>
      <name>dfs.ha.namenodes.mycluster</name>  //dfs.ha.namenodes.[nameservice ID] 命名空间中所有NameNode的唯一标示名称。可以配置多个,


        <value>nn1,nn2</value>                               //  使用逗号分隔。该名称是可以让DataNode知道每个集群的所有NameNode。当前,每个集群最多只能配置两个NameNode。
     </property>
     <property>
      <name>dfs.namenode.rpc-address.mycluster.nn1</name>    //dfs.namenode.rpc-address.[nameservice ID].[name node ID] 每个namenode监听的RPC地址
      <value>192.168.5.25:9000</value>
   </property>
     <property>
      <name>dfs.namenode.rpc-address.mycluster.nn2</name>
      <value>192.168.5.26:9000</value>
   </property>
     <property>
      <name>dfs.namenode.servicerpc-address.mycluster.nn1</name>
      <value>192.168.5.25:53310</value>
   </property>
     <property>
      <name>dfs.namenode.servicerpc-address.mycluster.nn2</name>
      <value>192.168.5.26:53310</value>
   </property>
     <property>
      <name>dfs.namenode.http-address.mycluster.nn1</name>   //dfs.namenode.http-address.[nameservice ID].[name node ID] 每个namenode监听的http地址。
      <value>192.168.5.25:50070</value>
    </property>
     <property>
      <name>dfs.namenode.http-address.mycluster.nn2</name>
      <value>192.168.5.26:50070</value>
   </property>
     <property>
      <name>dfs.namenode.shared.edits.dir</name>    
      <value>qjournal://192.168.5.25:8485;192.168.5.26:8485;192.168.5.27:8485/mycluster</value>


         //dfs.namenode.shared.edits.dir 这是NameNode读写JNs组的uri。通过这个uri,NameNodes可以读写edit log内容。URI的格 式"qjournal://host1:port1;host2:port2;host3:port3/journalId"。这里的host1、host2、host3指的是Journal Node的地址,这里必须是奇数个,至少3个;其中journalId是集群的唯一标识符,对于多个联邦命名空间,也使用同一个journalId。
    </property>
     <property>
      <name>dfs.client.failover.proxy.provider.mycluster</name>  //dfs.client.failover.proxy.provider.[nameservice ID] 这里配置HDFS客户端连接到Active NameNode
      <value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider</value>


     </property>
     <property>
      <name>dfs.ha.fencing.methods</name> //dfs.ha.fencing.methods 配置active namenode出错时的处理类


      <value>sshfence</value>
   </property>
     <property>
      <name>dfs.ha.fencing.ssh.private-key-files</name>
      <value>/home/hadoop/.ssh/id_rsa</value>
   </property>
   <property>
      <name>dfs.ha.fencing.ssh.connect-timeout</name>
      <value>30000</value>
   </property>
     <property>
      <name>dfs.journalnode.edits.dir</name> //dfs.journalnode.edits.dir 这是JournalNode进程保持逻辑状态的路径。


       <value>/home/hadoop/tmp/journal</value>
   </property>
   <property>
      <name>dfs.ha.automatic-failover.enabled</name>
      <value>true</value>
   </property>
     <property>
      <name>ha.failover-controller.cli-check.rpc-timeout.ms</name>
      <value>60000</value>
   </property>
    <property>
      <name>ipc.client.connect.timeout</name>
      <value>60000</value>
   </property>
     <property>
      <name>dfs.image.transfer.bandwidthPerSec</name>
      <value>4194304</value>
   </property>


</configuration>
8.配置mapred-site.xml


<configuration>


<property>


<name>mapreduce.framework.name</name>


<value>yarn</value>


</property>


<property>


<name>mapreduce.jobhistory.address</name>


<value> hadoop25:10020</value>


</property>


<property>


<name>mapreduce.jobhistory.webapp.address</name>


<value>hadoop25:19888</value>


</property>


</configuration>
9.配置yarn-site.xml


<configuration>


<property>


<name>yarn.nodemanager.aux-services</name>


<value>mapreduce_shuffle</value>


</property>


<property>


<name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>


<value>org.apache.hadoop.mapred.ShuffleHandler</value>


</property>


<property>


<name>yarn.resourcemanager.address</name>


<value>hadoop25:8032</value>


</property>


<property>


<name>yarn.resourcemanager.scheduler.address</name>


<value> hadoop25:8030</value>


</property>


<property>


<name>yarn.resourcemanager.resource-tracker.address</name>


<value> hadoop25:8031</value>


</property>


<property>


<name>yarn.resourcemanager.admin.address</name>


<value> hadoop25:8033</value>


</property>


<property>


<name>yarn.resourcemanager.webapp.address</name>


<value> hadoop25:8088</value>


</property>


</configuration>


 master配置完以后,可是直接把hadoop文件复制到从机,这样可以节省时间


 命令是在hadoop用户下进行:这个只需要在主机运行就可以了


 scp  -r   hadoop  hadoop@namenode2:/usr/local/
 scp  -r   hadoop  hadoop@datanode: /usr/local/
 scp  -r   hadoop  hadoop@datanode1: /usr/local/
scp  -r   hadoop  hadoop@datanode2: /usr/local/
 


0、首先把各个zookeeper起来,如果zookeeper集群还没有启动的话。


./bin/zkServer.sh start    记住每台机子都要启动


1、然后在某一个namenode节点执行如下命令,创建命名空间


./bin/hdfs zkfc -formatZK


2、在每个节点用如下命令启日志程序


./sbin/hadoop-daemon.sh start journalnode


3、在主namenode节点用./bin/hadoopnamenode -format格式化namenode和journalnode目录


./bin/hadoop namenode -format mycluster


4、在主namenode节点启动./sbin/hadoop-daemon.shstart namenode进程


./sbin/hadoop-daemon.sh start namenode


5、在备节点执行第一行命令,这个是把备namenode节点的目录格式化并把元数据从主namenode节点copy过来,并且这个命令不会把journalnode目录再格式化了!然后用第二个命令启动备namenode进程!


./bin/hdfs namenode -bootstrapStandby


./sbin/hadoop-daemon.sh start namenode


6、在两个namenode节点都执行以下命令


./sbin/hadoop-daemon.sh start zkfc


7、在所有datanode节点都执行以下命令启动datanode


./sbin/hadoop-daemon.sh start datanode


1.4 startupphase


下次启动的时候,就直接执行以下命令就可以全部启动所有进程和服务了:


但是还是要先启动zookeeper,启动日志程序,然后在全部启动


./sbin/start-dfs.sh


然后访问以下两个地址查看启动的两个namenode的状态:


http://192.168.5.25:50070/dfshealth.jsp


http://192.168.5.26:50070/dfshealth.jsp
1.5 stop phase


停止所有HDFS相关的进程服务,执行以下命令:


./sbin/stop-dfs.sh


1.6 测试HDFS的HA功能


在任意一台namenode机器上通过jps命令查找到namenode的进程号,然后通过kill -9的方式杀掉进程,观察另一个namenode节点是否会从状态standby变成active状态。


hd@hd0:/opt/hadoop/apps/hadoop$ jps


1686 JournalNode


1239 QuorumPeerMain


1380 NameNode


2365 Jps


1863 DFSZKFailoverController


hd@hd0:/opt/hadoop/apps/hadoop$ kill -9 1380


然后观察原来是standby状态的namenode机器的zkfc日志,若最后一行出现如下日志,则表示切换成功:


2013-12-31 16:14:41,114 INFOorg.apache.hadoop.ha.ZKFailoverController: Successfully transitioned NameNodeat hd0/192.168.5.25:53310 to active state


这时再通过命令启动被kill掉的namenode进程


./sbin/hadoop-daemon.sh start namenode


对应进程的zkfc最后一行日志如下:


2013-12-31 16:14:55,683 INFOorg.apache.hadoop.ha.ZKFailoverController: Successfully transitioned NameNodeat hd2/192.168.5.26:53310 to standby state


可以在两台namenode机器之间来回kill掉namenode进程以检查HDFS的HA配置!


   
文件备份
1. 把文件拷贝到文件系统在hadoop的bin 目录下运行
./hadoop fs -copyFromLocal –f  /tmp/bmap.txt /file/  
2. 把文件系统文件拷贝到本地
./hadoop fs -copyToLocal  /file/bmap.txt /tmp  


集群之间的文件拷贝
./bin/hadoop distcp hdfs://ub1:9000/test.txt hdfs://ub3:9000/bar/test.txt 
# ub1为集群1的主节点
# ub3为集群2的主节点  
#执行集群间数据拷贝得先启动yarn 服务                                                                                      


安装可能遇到的问题
一.启动datanode 失败的解决方案
1,首先停掉namenode上相关的进程:切换到hadoop的/sbin目录下:


sh  stop-dfs.sh


sh stop-yarn.sh


2,切换到hadoop的相应/current目录下将current下的所有文件清除。


3,将datanode与namenode的/current 下VERSION等相应文件文件清除后,回到namenode上,执行hsfs namenode -format命令,接着切换到namenode的hadoop的/sbin目录下:


执行sh start-dfs.sh


sh start-yarn.sh


(旧版本的mapre  被新版本的yarn所替代,命令上多少有些不同)


既可以看到相应的节点成功加载。


相应的思想就是,当出错时,清除掉一切干扰思路的文件,然后整理思绪,重新开始,这样要远比在原地徘徊要好。


(由于我们在配置文件中指明的文件夹只有  hdfs tmp log,所以其余的文件也好文件夹也好都是动态执行脚本生成创建的,删除之后只要hadoop整个系统可以工作就会生成,即便错删,VM的 snapshot 也会拯救这个世界。)


二 ,启动namenode失败解决方案
将我们能启动的namenode 机器中的数据复制到另一个主节点里面
例如主节点192.168.5.26启动不了
scp -r /opt/hadoop/ root@192.168.5.26:/opt/


三,拷贝数据出现copyFromLocal: Operation category READ is not supported in state standby错误时,kill掉当前active节点,然后单独重新启动这个namenode




快速安装方法请参考我们的 hadoop-manager 文件

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值