HBASE HA和完全分布式搭建实战
实验环境
主机名 | IP |
---|
master | 10.30.59.130 |
slave1 | 10.30.59.131 |
slave2 | 10.30.59.133 |
软件要求
软件名称 | 软件版本 |
---|
JDK | 8u77 |
Zookeeper | 3.4.5 |
Hadoop | 2.6.0 |
Hbase | 1.2.11 |
先决条件
- 各个主机已完成 主机名-IP 映射
- 各个主机已完成ssh免密登录
- ZooKeeper已部署完毕并启动
- Hadoop已部署完毕并启动
搭建步骤:
一、解压组件
[root@master ~]# cd /opt
[root@master opt]# tar -xzvf soft/hbase-1.2.11-bin.tar.gz
[root@master opt]# mv hbase-1.2.11/ hbase
二、填写配置文件
[root@master opt]# vi hbase/conf/hbase-site.xml
<?xml version="1.0" encoding="utf-8"?>
<configuration>
<property>
<name>hbase.rootdir</name>
<value>hdfs://ns1/hbase</value>
<description>一定要把hadoop中的core-site.xml和hdf-site.xml复制到hbase的conf目录下,才能成功解析该集群名称;如果是hadoop分布式单namenode集群,配置写成hdfs://master:9000/hbase (master是namenode主机名)</description>
</property>
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<property>
<name>hbase.zookeeper.quorum</name>
<value>master,slave1,slave2</value>
</property>
</configuration>
[root@master opt]# vi hbase/conf/regionservers
master
slave1
slave2
[root@master opt]# vi hbase/conf/backup-masters
master
slave1
三、配置环境变量并令其立即生效
[root@master opt]# vi /etc/profile.d/hadoop-etc.sh
export HBASE_HOME=/opt/hbase
export PATH=$PATH:$HBASE_HOME/bin
[root@master opt]# source /etc/profile.d/hadoop-etc.sh
四、同步slave节点的配置并令其环境变量立即生效
[root@master opt]# scp -r hbase slave1:/opt
[root@master opt]# scp /etc/profile.d/hadoop-etc.sh slave1:/etc/profile.d
[root@master opt]# scp -r hbase slave2:/opt
[root@master opt]# scp /etc/profile.d/hadoop-etc.sh slave2:/etc/profile.d
[root@slave1 ~]# source /etc/profile.d/hadoop-etc.sh
[root@slave2 ~]# source /etc/profile.d/hadoop-etc.sh
五、启动HBASE
[root@master opt]# start-hbase.sh
六、实验验证
访问以下页面,均有正常显示即可
- http://10.30.59.130:16010
- http://10.30.59.130:16030
- http://10.30.59.131:16010
- http://10.30.59.131:16030