Hadoop高可用

IP规划

HOST

NN

NN

JN

DN

ZKFC

ZK

node01

*

*

*

node02

*

*

*

*

*

node03

*

*

*

node04

*

*

hadoop:2.6.5

JDK8安装

上传并解压

 tar -zxvf xxx.tar.gz

配置环境变量

export JAVA_HOME=/usr/local/jdk8
export CLASSPATH=.:/usr/local/jdk8/lib
export PATH=$PATH:/usr/local/jdk8/bin
 

设置主机名

静态的(Static hostname)

“静态”主机名也称为内核主机名,是系统在启动时从/etc/hostname自动初始化的主机名。

瞬态的(Tansient hostname)

“瞬态”主机名是在系统运行时临时分配的主机名,例如,通过DHCP或mDNS服务器分配。

灵活的(Pretty hostname)

“灵活”主机名也有人叫做“别名”主机名。

“灵活”主机名则允许使用自由形式(包括特殊/空白字符)的主机名,以展示给终端用户(如xh01@f5)。

“静态”主机名和“瞬态”主机名都遵从作为互联网域名同样的字符限制规则。

 

 

 

免密

生成公司钥

ssh-keygen -t rsa

cat id_rsa.pub >> authorized_keys

 

另外一种算法

ssh-keygen -t dsa -P '' -f ./id_dsa

cat id_dsa.pub >> authorized_keys

scp ./id_dsa.pub  node01:`pwd`/node02.pub

-P指定密码为空,使用dsa算法

配置authorized_keys文件

把所有的节点上的id_rsa.pub都汇聚到authorized_keys文件中,分别上传到4台机器的/root/.ssh目录下

 

测试

 

Zookeeper的集群搭建

Zk java语言开发

基于内存存储数据,也需要在磁盘上做持久化

/tmp目录很危险,存在操作系统自动删除数据的风险的

Linux的数据一般放在/var目录下,软件放/opt目录下

解压

tar -zxvf zookeeper-3.4.6.tar.gz

修改配置文件

创建存放数据的目录: mkdir -p /var/bigdata/hadoop/zk

 

 

参数说明:

dataDir---指定zk数据文件的存放路径

Server.1中的1是权重的意思,配置server.1、server.2、server.3为了保证任意2台zookeeper启动,都过50%(含)即选举成功

2888,3888分别代码zk使用时的端口和选举的端口,2181集群连接通信的端口

配置权重文件myid

Myid文件存放/var/bigdata/hadoop/zk即zoo.cfg的dataDir配置项指定的目录下

其内容为其权重值,即zoo.cfg中server.后的值

 

配置环境变量

Vim /etc/profile

export ZOOKEEPER_HOME=/opt/bigdata/zookeeper-3.4.6

export PATH=$PATH:$ZOOKEEPER_HOME/bin:$ZOOKEEPER_HOME/sbin

上传zk到node3,node4节点

在node3,node4执行创建目录命令:

mkdir -p /opt/bigdata、mkdir -p /var/bigdata/hadoop/zk

    把node2的zookeeper安装包上传到node3,node4

 

 

scp -r ./zookeeper-3.4.6  node3:`pwd`

scp -r ./zookeeper-3.4.6  node4:`pwd`

`pwd`意思是就是当前目录,这样就复制到远程集群相应的目录了

配置node3,node4的权重--myid文件(与node2一样)

配置zookeeper环境变量(与node2一样)

启动zk

启动第1台node2:

报错的原因是配置文件配置了3台,目前只启动了1台(如果再启动一台还报错,可能是配置文件配置错误或防火墙没有关闭)

第1台是folower

启动第2台node3:

 

第2台是leader

 

第3台是follower

 

Zookeeper启动命令

         zkServer.sh start  启动

         zkServer.sh stop   关闭

         zkServer.sh status  查看状态

Hadoop的安装

Hadoop2.X的nn节点最多2个,3.X最多5个

修改配置文件

Core-site.xml

<configuration>

 <property>

   <name>fs.defaultFS</name>

   <value>hdfs://mycluster</value>

 </property>

 <property>

   <name>ha.zookeeper.quorum</name>

   <value>node2:2181,node3:2181,node4:2181</value>

 </property>

</configuration>

说明:

fs.defaultFS配置项表示默认的文件系统,可以为具体某个物理节点或指定一个集群名, hdfs://mycluster中的hdfs:是前缀,固定的。

Mycluster: 自定义的

ha.zookeeper.quorum:配置项,指定zookeeper的地址

hdfs-site.xml

<property>

    <name>dfs.replication</name>

    <value>2</value>  表示副本的数量

</property>

<property>

   <name>dfs.namenode.name.dir</name>

   <value>/var/bigdata/hadoop/ha/dfs/name</value>

</property>

<property>

   <name>dfs.datanode.data.dir</name>

   <value>/var/bigdata/hadoop/ha/dfs/data</value>

</property>

#以下是  一对多,逻辑到物理节点的映射

<property>

  <name>dfs.nameservices</name>

  <value>mycluster</value>

</property>

<property>

  <name>dfs.ha.namenodes.mycluster</name>

  <value>nn1,nn2</value>

</property>

<property>

  <name>dfs.namenode.rpc-address.mycluster.nn1</name>

  <value>node1:8020</value>

</property>

<property>

  <name>dfs.namenode.rpc-address.mycluster.nn2</name>

  <value>node2:8020</value>

</property>

<property>

  <name>dfs.namenode.http-address.mycluster.nn1</name>

  <value>node1:50070</value>

</property>

<property>

  <name>dfs.namenode.http-address.mycluster.nn2</name>

  <value>node2:50070</value>

</property>

#以下是JN在哪里启动,数据存那个磁盘

<property>

  <name>dfs.namenode.shared.edits.dir</name>

  <value>qjournal://node1:8485;node2:8485;node3:8485/mycluster</value>

</property>

<property>

  <name>dfs.journalnode.edits.dir</name>

  <value>/var/bigdata/hadoop/ha/dfs/jn</value>

</property>

#HA角色切换的代理类和实现方法,我们用的ssh免密

<property>

  <name>dfs.client.failover.proxy.provider.mycluster</name>

 <value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider</value>

</property>

<property>

  <name>dfs.ha.fencing.methods</name>

  <value>sshfence</value>

</property>

<property>

  <name>dfs.ha.fencing.ssh.private-key-files</name>

  <value>/root/.ssh/id_rsa</value>

</property>

#开启自动化: 启动zkfc

 <property>

   <name>dfs.ha.automatic-failover.enabled</name>

   <value>true</value>

 </property>

别忘了配置hadoop-env.sh中的JAVA_HOME

指定从节点

3.X不叫slaves改为workers

 

上传其他节点

scp -r ./hadoop-2.6.5 node2:`pwd`

scp -r ./hadoop-2.6.5 node3:`pwd`

scp -r ./hadoop-2.6.5 node4:`pwd`

配置hadoop的环境变量

 

在profile添加如下内容:

export HADOOP_HOME=/opt/bigdata/hadoop-2.6.5

export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

初始化

JN

先启动JN   hadoop-daemon.sh start journalnode

在node1节点上执行

hadoop-daemon.sh start journalnode

 

 

 

在node2节点上执行

hadoop-daemon.sh start journalnode

 

在node2节点上执行

hadoop-daemon.sh start journalnode

查看 hadoop-root-journalnode-node3.log

 

Nn

1格式化

选择一个NN 做格式化:hdfs namenode -format   <只有第一次搭建做,以后不用做>

2台nn随便挑一台格式化,在node1进行格式化: hdfs namenode -format

 

本机JN目录多出:

 

 

再看看node3 的日志

 

再看看node的jn目录(也会增加这些东西)

 

在节点node1(nn节点)上启动nn

启动这个格式化的NN ,以备另外一台同步  hadoop-daemon.sh start namenode

  hadoop-daemon.sh start namenode

 

在节点node2上:

即在另外一台nn机器: hdfs namenode -bootstrapStandby

 

 

 

 

执行 hdfs namenode -bootstrapStandby 启动namenode的从节点

格式化zk

   hdfs zkfc  -formatZK     <只有第一次搭建做,以后不用做>

在node4上操作

 

在node1节点对zk进行格式化

  hdfs zkfc -formatZK

 

 

Node4的zk客户端查看,发现确实创建了hadoop-ha这个节点

格式化,就是创建zk目录

start-dfs.sh

格式化以后,在node1节点上执行start-dfs.sh

 

 

在node3节点发现edits,

 

 

 

Zk的节点变化

 

 

浏览器:http://192.168.10.60:50070/

 

谁抢到锁,谁active

报错

是因为hadoop-env.sh的JAVA_HOME没有配置(因为ssh远程登录其他节点无法读取profile的变量)

 

 

Hadoop重启

stop-dfs.sh

start-dfs.sh

 

 

你会发现namenode会自动切换到node2上

 

没有datanode

如果jsp没有datanode节点,就把dfs目录下内容都删了,所有机器的

 

  • 2
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值