hadoop HA部署(NFS方案)

第二步,部署好NFS,这个网上也有很多。 
http://blog.sina.com.cn/s/blog_542627730100ipi5.html 我主要参考这个,下面是粘贴 
引用

  一、Linux 服务器端NFS 服务器的配置 
  以root 身份登陆Linux 服务器,编辑/etc 目录下的共享目录配置文件exports,指定共享目录及权限等。 
  执行如下命令编辑文件/etc/exports: 
  # vi /etc/exports 
  在该文件里添加如下内容: 
  /home/work 192.168.0.*(rw,sync,no_root_squash) 
  然后保存退出。 
  添加的内容表示:允许ip 地址范围在192.168.0.*的计算机以读写的权限来访问/home/work 目录。 
  /home/work 也称为服务器输出共享目录。 
  括号内的参数意义描述如下: 
  rw:读/写权限,只读权限的参数为ro; 
  sync:数据同步写入内存和硬盘,也可以使用async,此时数据会先暂存于内存中,而不立即写入硬盘。 
  no_root_squash:NFS 服务器共享目录用户的属性,如果用户是 root,那么对于这个共享目录来说就具有 root 的权限。 
  接着执行如下命令,启动端口映射: 
  # /etc/rc.d/init.d/portmap start 
  最后执行如下命令启动NFS 服务,此时NFS 会激活守护进程,然后就开始监听 Client 端的请求: 
  # /etc/rc.d/init.d/nfs start 
    #exportfs -rv  (这句必须执行) 
  用户也可以重新启动Linux 服务器,自动启动NFS 服务。 
  在NFS 服务器启动后,还需要检查Linux 服务器的防火墙等设置(一般需要关闭防火墙服务),确保没有屏蔽掉NFS 使用的端口和允许通信的主机,主要是检查Linux 服务器iptables,ipchains 等选项的设置,以及/etc/hosts.deny,/etc/hosts.allow 文件。 
  我们首先在Linux 服务器上进行NFS 服务器的回环测试,验证共享目录是否能够被访问。在Linux 服务器上运行如下命令: 
  # mount –t nfs 192.168.0.20:/home/work /mnt 
  # ls /mnt   命令将Linux 服务器的NFS 输出共享目录挂载到/mnt 目录下,因此,如果NFS 正常工作,应该能够在/mnt 目录看到/home/work 共享目录中的内容。 

      在客户机进行上如下操作: 

    # mkdir /mnt/nfs //建立Linux 服务器输出共享目录的挂载点; 
  # mount –t nfs 192.168.0.20:/home/work /mnt/nfs –o nolock 
  # cd /mnt/nfs 
  # ls 
   在开发过程中,来回输入命令非常烦人,我写了两个简单的脚本来完成nfs的启动,挂载。 
  host启动nfs: 
  snfs 
  #!/bin/bash 
  ifconfig eth0 192.168.0.20 
  /etc/rc.d/init.d/portmap start 
  /etc/rc.d/init.d/nfs start 
   目标机挂载nfs: 
  mnfs: 
  #!/bin/sh 
  mount -t nfs 192.168.0.20:/home/work/nfs /mnt/nfs -o nolock 
  echo “nfs ok!” 

     也可以配置/etc/fstab: 

#vi /etc/fstab   
加入以下内容   
192.168 . 0.203 :/home/cqxs3/data  /home/cqxs3/data        nfs      defaults 



第三步,配置hadoop HA,基本上一路顺利,按照官方文档弄就行:http://hadoop.apache.org/docs/r2.0.0-alpha/hadoop-yarn/hadoop-yarn-site/HDFSHighAvailability.html 
1,保证两个namenode硬件配置相同,或者都能胜任工作吧; 
2,保证两个namenode都挂载了nfs同一块区域吧。 
3,保证两个namenode可以互相免密码ssh,namenode运行的进程。 
4,保证两个NameNode的dfs.namenode.name.dir路径下内容相同; 
5,保证dfs.namenode.shared.edits.dir路径下有current/edit_*文件 
6,可以启动啦,在namenode上执行start-dfs.sh,可以jps查进程、访问namenode的web、以及看日志确认namenode是否成功启动了。 
7,启动datanode (因为我开了security模式,所以datanode要单独在root下启动) 
8,启动之后,两个namenode都在standby模式,在namenode上执行hdfs dfs -haadmin failover nn2 nn1 就行啦。 
9,没有了,一切静待运行几天。 

10,补充下,hadoop 的client也做的ha重试机制,所以client知道去哪里找namenode。 
11,再补充一下,两个namenode机器上运行namenode进程的用户(我这里是hdfs)的uid要相同,要不然无法对nfs中的数据拥有相同的权限。 



最后,附上我的配置文件 

Core-site.xml代码   收藏代码
  1. <configuration>  
  2.   
  3.         <!-- NameNode URI of the cluster -->  
  4.         <property>  
  5.                 <name>fs.defaultFS</name>  
  6.                 <value>hdfs://hadoopii</value>  
  7.         </property>  
  8.   
  9.         <property>    
  10.                 <name>fs.trash.interval</name>    
  11.                 <value>1440</value>    
  12.         </property>    
  13.   
  14. </configuration>  


Hdfs-site.xml代码   收藏代码
  1. <configuration>  
  2.   
  3.   
  4.         <property>  
  5.                 <name>dfs.federation.nameservices</name>  
  6.                 <value>hadoopii</value>  
  7.         </property>  
  8.   
  9.         <property>  
  10.                  <name>dfs.permissions.superusergroup</name>  
  11.                  <value>hadoop</value>  
  12.         </property>  
  13.   
  14.         <!-- namenode dir -->  
  15.         <property>  
  16.                 <name>dfs.namenode.name.dir</name>  
  17.                 <value>/data/NameNode</value>  
  18.         </property>  
  19.   
  20.         <!-- datanode dir -->  
  21.         <property>  
  22.                 <name>dfs.datanode.data.dir</name>  
  23.                 <value>/data/DataNode</value>  
  24.         </property>  
  25.   
  26.   
  27.         <property>  
  28.                 <name>dfs.replication</name>  
  29.                 <value>2</value>  
  30.         </property>  
  31.   
  32.         <property>  
  33.                 <name>dfs.datanode.max.xcievers</name>  
  34.                 <value>4096</value>  
  35.         </property>  
  36.   
  37.   
  38.         <!-- datanode dir -->  
  39.         <property>  
  40.                 <name>dfs.checksum.type</name>  
  41.                 <value>CRC32</value>  
  42.         </property>  
  43.   
  44.   
  45.   
  46.   
  47.         <property>  
  48.                 <name>dfs.ha.namenodes.hadoopii</name>  
  49.                 <value>nn1,nn2</value>  
  50.         </property>  
  51.   
  52.   
  53.   
  54.         <property>  
  55.                 <name>dfs.namenode.rpc-address.hadoopii.nn1</name>  
  56.                 <value>myhost20:54310</value>  
  57.         </property>  
  58.   
  59.   
  60.         <property>  
  61.                 <name>dfs.namenode.rpc-address.hadoopii.nn2</name>  
  62.                 <value>myhost-1:54310</value>  
  63.         </property>  
  64.   
  65.   
  66.         <property>  
  67.                 <name>dfs.namenode.servicerpc-address.hadoopii.nn1</name>  
  68.                 <value>myhost20:53310</value>  
  69.         </property>  
  70.   
  71.         <property>  
  72.                 <name>dfs.namenode.servicerpc-address.hadoopii.nn2</name>  
  73.                 <value>myhost-1:53310</value>  
  74.         </property>  
  75.   
  76.   
  77.         <property>  
  78.                 <name>dfs.namenode.http-address.hadoopii.nn1</name>  
  79.                 <value>myhost20:50070</value>  
  80.         </property>  
  81.   
  82.   
  83.         <property>  
  84.                 <name>dfs.namenode.http-address.hadoopii.nn2</name>  
  85.                 <value>myhost-1:50070</value>  
  86.         </property>  
  87.   
  88.         <property>  
  89.                 <name>dfs.client.failover.proxy.provider.hadoopii</name>  
  90.                 <value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider</value>  
  91.         </property>  
  92.   
  93.   
  94.         <property>  
  95.                 <name>dfs.namenode.shared.edits.dir</name>  
  96.                 <value>file:///nfs_myhost0/hdfs/ha-name-dir-shared</value>  
  97.         </property>  
  98.   
  99.         <property>  
  100.                 <name>dfs.ha.fencing.methods</name>  
  101.                 <value>sshfence</value>  
  102.         </property>  
  103.   
  104.         <property>  
  105.                 <name>dfs.ha.fencing.ssh.private-key-files</name>  
  106.                 <value>/home/hdfs/.ssh/id_rsa</value>  
  107.         </property>  
  108.   
  109.         <property>  
  110.                 <name>dfs.ha.fencing.ssh.connect-timeout</name>  
  111.                 <value>5000</value>  
  112.         </property>  
  113.   
  114.   
  115.   
  116. </configuration> 
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值