3个节点hadoop搭建

###1 安装linux jdk
###2 检查3个节点时间是否相同
###3 主节点ssh免登陆从节点
分别在三个节点生成公钥和公钥追加,节点自己免登陆,不生成追加时会失败;将主节点公钥复制到从节点,在从节点公钥追加。指令如下:

生成公钥
ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa
公钥追加
cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys   
复制公钥
scp ./id_dsa.pub root@192.168.1.9:/opt/    

###4 配置文件

4.1 vi hadoop-env.sh NN 主机端口
	  数据上传下载端口 rpc协议
	 <property>
                <name>fs.defaultFS</name>
                <value>hdfs://192.168.1.8:9000</value>
    </property>
    默认数据会丢失,Linux重启temp默认清空,零时数据丢失
    <property>
             <name>hadoop.tmp.dir</name>
             <value>/opt/hadoop2.5</value>                     
    </property>
4.2 hdfs-site.xml
	SNN   浏览器访问
	<property>
             <name>dfs.namenode.secondary.http-address</name>
             <value>192.168.1.9:50090</value>
    </property>
<property>
             <name>dfs.namenode.secondary.https-address</name>
             <value>192.168.1.9:50091</value>
    </property>
4.3 slaves DNN主机名

192.168.1.8
192.168.1.9
192.168.1.10

4.4 masters SNN主机名

192.168.1.9
###5 复制

5.1 复制目录到其他节点
 scp -r hadoop-2.5.1/ root@192.168.1.9:/home/   
5.2 配置hadoop环境变量,复制目录到其他节点
 vi ~/.bash_profile 
export HADOOP_HOME=/home/hadoop-2.5.1
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

scp ~/.bash_profile root@192.168.1.9:/root/

###6初始化fsimge
hdfs namenode -format
###7 启动

start -dfs.sh

[root@localhost current]# start-dfs.sh
Starting namenodes on [192.168.1.8]
192.168.1.8: starting namenode, logging to /home/hadoop-2.5.1/logs/hadoop-root-namenode-localhost.localdomain.out
192.168.1.10: starting datanode, logging to /home/hadoop-2.5.1/logs/hadoop-root-datanode-node3.out
192.168.1.9: starting datanode, logging to /home/hadoop-2.5.1/logs/hadoop-root-datanode-node2.out
192.168.1.8: starting datanode, logging to /home/hadoop-2.5.1/logs/hadoop-root-datanode-localhost.localdomain.out
Starting secondary namenodes [192.168.1.9]
192.168.1.9: starting secondarynamenode, logging to /home/hadoop-2.5.1/logs/hadoop-root-secondarynamenode-node2.out

###8 访问监控页面关防火墙
service iptables stop
###9关闭

[root@localhost current]# stop-dfs.sh
Stopping namenodes on [node1]
The authenticity of host 'node1 (192.168.1.8)' can't be established.
RSA key fingerprint is b9:4a:f5:3f:90:b4:77:67:dd:24:1f:e4:5b:ef:65:b2.
Are you sure you want to continue connecting (yes/no)? yes
node1: Warning: Permanently added 'node1' (RSA) to the list of known hosts.
node1: stopping namenode
192.168.1.10: no datanode to stop
192.168.1.8: stopping datanode
192.168.1.9: no datanode to stop
Stopping secondary namenodes [node2]
The authenticity of host 'node2 (192.168.1.9)' can't be established.
RSA key fingerprint is b9:4a:f5:3f:90:b4:77:67:dd:24:1f:e4:5b:ef:65:b2.
Are you sure you want to continue connecting (yes/no)? yes
node2: Warning: Permanently added 'node2' (RSA) to the list of known hosts.
node2: stopping secondarynamenode

注:DNN有点问题,待调

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
搭建Hadoop的高可用(HA)环境,你需要考虑以下几个步骤: 1. 配置Hadoop集群:确保你已经成功地设置了一个Hadoop集群,并且所有节点都能够正常通信。 2. 配置ZooKeeper:HA模式下,Hadoop使用ZooKeeper来进行主节点的选举和故障切换。你需要安装和配置ZooKeeper集群。 3. 修改Hadoop配置文件:在core-site.xml、hdfs-site.xml和yarn-site.xml等配置文件中,进行如下修改: - 在core-site.xml中,指定ZooKeeper的地址。 - 在hdfs-site.xml中,设置HA相关的属性,如nameservice、namenode、journalnode等。 - 在yarn-site.xml中,设置ResourceManager的高可用属性。 4. 启动JournalNodes:JournalNodes用于存储HDFS的元数据日志,并确保数据的一致性。启动JournalNodes之前,需要在hdfs-site.xml中指定JournalNode的地址。 5. 格式化NameNode:使用`hdfs namenode -format`命令格式化NameNode。这将创建一个新的命名空间并为HA做准备。 6. 启动NameNode和DataNode:启动NameNode时,指定HA相关的配置参数,并确保DataNode也能够正常启动。 7. 启动ResourceManager和NodeManager:启动ResourceManager时,同样要指定HA相关的配置参数,并确保NodeManager也能够正常启动。 8. 进行故障切换测试:通过停止当前的Active节点,触发故障切换,验证HA环境是否正常工作。 以上是搭建Hadoop的高可用环境的基本步骤,具体的配置细节和命令可能会根据你的环境和需求有所不同。请确保在进行任何配置更改之前备份重要数据,并参考官方文档或相关资源获取更多详细信息。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值