使用HBase之前先搭建好Hadoop HDFS的环境,同时也需要搭建zookeeper集群服务,HBASE的压缩包奉上密码:zxcv
HBASE集群搭建步骤
1.1 上传解压HBASE安装包
- 上传HBASE安装包到第一台机器的/export/software目录下
cd /export/software
- 解压安装
tar -zxvf hbase-2.1.0.tar.gz -C /export/server/
cd /export/server/hbase-2.1.0/
1.2 修改HBASE配置文件
hbase-env.sh
cd /export/server/hbase-2.1.0/conf
vim hbase-env.sh
第28行
export JAVA_HOME=/export/server/jdk1.8.0_241/
第125行
export HBASE_MANAGES_ZK=false
hbase-site.xml
cd /export/server/hbase-2.1.0/
mkdir datas
vim conf/hbase-site.xml
<property >
<name>hbase.tmp.dir</name>
<value>/export/server/hbase-2.1.0/datas</value>
</property>
<property >
<name>hbase.rootdir</name>
<value>hdfs://node1:8020/hbase</value>
</property>
<property >
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<property>
<name>hbase.zookeeper.quorum</name>
<value>node1:2181,node2:2181,node3:2181</value>
</property>
修改regionservers
vim conf/regionservers
node1
node2
node3
配置环境变量
# 配置Hbase环境变量
vim /etc/profile
export HBASE_HOME=/export/server/hbase-2.1.0
export PATH=$PATH:${HBASE_HOME}/bin:${HBASE_HOME}/sbin
#加载环境变量
source /etc/profile
1.3 分发启动
- 分发
cd /export/server/
scp -r hbase-2.1.0 node2:$PWD
scp -r hbase-2.1.0 node3:$PWD
-
启动
1. 启动HDFS
start-dfs.sh
2. 启动zookeeper(我们这里有脚本可以将三台节点一起启动)
start-zk-all.sh
3. 启动HBASE
start-hbase.sh -
关闭
stop-hbase.sh
1.4 测试
访问HBase Web UI :node01:16010
1.5 搭建HBase HA
- 关闭HBase所有节点
stop-hbase.sh
- 创建并编辑配置文件
vim conf/backup-masters
node02
- 启动HBase集群
1.6 测试HA
启动两个Master,强制关闭Active Master,观察StandBy的Master是否切换为Active状态
测试完成以后,删除配置,只保留单个Master模式