前言:
下载hbase的版本为1.0.0-cdh5.5.1,安装好hadoop和zookeeper
hbase集群架构
主节点:172.16.12.85
从节点:172.16.12.88
数据节点:172.16.12.91,172.16.12.94,172.16.12.97
zookeeper集群架构
172.16.12.85,172.16.12.88,172.16.12.91
1,修改hbase-env.sh文件
# The java implementation to use. Java 1.7+ required.
export JAVA_HOME=/data01/jdk1.7/
# Extra Java CLASSPATH elements. Optional.
export HBASE_CLASSPATH=/data01/hadoop/etc/hadoop/
# Tell HBase whether it should manage it's own instance of Zookeeper or not.
export HBASE_MANAGES_ZK=true
2,修改hbase-site.xml文件
<property>
<name>hbase.rootdir</name>
<value>hdfs://gy-cluster/hbase</value>
<description>The directory shared by RegionServers.</description>
</property>
<property>
<name>hbase.master</name>
<value>60000</value> <!--这里注意了,只需端口即可,不必再写主机名称了! -->
</property>
<property>
<name>hbase.zookeeper.quorum</name>
<value>172.16.12.85,172.16.12.88,172.16.12.91</value>
</property>
<property>
<name>hbase.zookeeper.property.clientPort</name>
<value>2181</value>
</property>
<property>
<name>hbase.zookeeper.property.dataDir</name>
<value>/data01/hbase/data/zookeeper</value>
</property>
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<property>
<name>hbase.tmp.dir</name>
<value>/data01/hbase/tmp/hbase</value>
</property>
3,修改regionservers文件,添加你hbase的datanode节点
172.16.12.91
172.16.12.94
172.16.12.97
4,把主节点的数据拷贝到你的其它节点
scp -r hbase 172.16.12.88://data01/hbase/
……
5,在主节点启动hbase
bin/start-hbase.sh
验证:在主节点和数据节点运行命令jps,会有对应的进程出现。
6,在备用节点启动HMaster
bin/hbase-daemon.sh start master
验证:在备用节点运行jps命令,出现hmaster进程。
7,web验证
在浏览器中输入http://172.16.12.85:60010/master-status,会出现如下结果
这样说明你的hbase ha已经搭建成功!