搭建hbase HA集群

前言:

下载hbase的版本为1.0.0-cdh5.5.1,安装好hadoop和zookeeper

hbase集群架构

主节点:172.16.12.85

从节点:172.16.12.88

数据节点:172.16.12.91,172.16.12.94,172.16.12.97


zookeeper集群架构

172.16.12.85,172.16.12.88,172.16.12.91

1,修改hbase-env.sh文件

# The java implementation to use.  Java 1.7+ required.
 export JAVA_HOME=/data01/jdk1.7/

# Extra Java CLASSPATH elements.  Optional.
 export HBASE_CLASSPATH=/data01/hadoop/etc/hadoop/

# Tell HBase whether it should manage it's own instance of Zookeeper or not.
 export HBASE_MANAGES_ZK=true


2,修改hbase-site.xml文件

<property>
	<name>hbase.rootdir</name>
	<value>hdfs://gy-cluster/hbase</value>
	<description>The directory shared by RegionServers.</description>
</property>

<property>
	<name>hbase.master</name>
	<value>60000</value> <!--这里注意了,只需端口即可,不必再写主机名称了! -->
</property>

<property>
	<name>hbase.zookeeper.quorum</name>
	<value>172.16.12.85,172.16.12.88,172.16.12.91</value>
</property>

<property>
	<name>hbase.zookeeper.property.clientPort</name>
	<value>2181</value>
</property>

<property>
	<name>hbase.zookeeper.property.dataDir</name>
	<value>/data01/hbase/data/zookeeper</value>
</property>

<property>
	<name>hbase.cluster.distributed</name>
	<value>true</value>
</property>

<property>
	<name>hbase.tmp.dir</name>
	<value>/data01/hbase/tmp/hbase</value>
</property>

3,修改regionservers文件,添加你hbase的datanode节点

172.16.12.91
172.16.12.94
172.16.12.97

4,把主节点的数据拷贝到你的其它节点

scp -r hbase 172.16.12.88://data01/hbase/

……

5,在主节点启动hbase

bin/start-hbase.sh

验证:在主节点和数据节点运行命令jps,会有对应的进程出现。


6,在备用节点启动HMaster

bin/hbase-daemon.sh start master

验证:在备用节点运行jps命令,出现hmaster进程。

7,web验证

在浏览器中输入http://172.16.12.85:60010/master-status,会出现如下结果

这样说明你的hbase ha已经搭建成功!



©️2020 CSDN 皮肤主题: 大白 设计师:CSDN官方博客 返回首页