环境介绍
服务器: 阿里云Centos7.4
hbase版本: hbase-1.3.1-bin.tar.gz
下载地址:http://archive.apache.org/dist/hbase/1.3.1/
前置条件
- 需要完成hadoop集群搭建,参考上文: hadoop搭建全过程.
- 需要在每个节点安装好zookeeper
安装HBase
- 解压安装包到指定的规划目录
tar -zxvf hbase-1.3.1-bin.tar.gz -C /home/teacher/opt/module/
- 需要把hadoop中的配置core-site.xml 、hdfs-site.xml拷贝到hbase安装目录下的conf文件夹中
cd /home/teacher/opt/module/hadoop-2.7.2/etc/hadoop
cp core-site.xml hdfs-site.xml /home/teacher/opt/module/hbase-1.3.1/conf/
- 修改conf目录下配置文件
- 修改 hbase-env.sh
vi hbase-env.sh
#添加java环境变量
export JAVA_HOME=/opt/module/jdk1.8.0_231
#指定使用外部的zk集群
export HBASE_MANAGES_ZK=FALSE
- 修改 hbase-site.xml
vi hbase-site.xml
<configuration>
<!-- 指定hbase在HDFS上存储的路径 -->
<property>
<name>hbase.rootdir</name>
<value>hdfs://teacher1:9000/hbase</value>
</property>
<!-- 指定hbase是分布式的 -->
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<!-- 指定zk的地址,多个用“,”分割 -->
<property>
<name>hbase.zookeeper.quorum</name>
<value>teacher1:2181,teacher2:2181,teacher3:2181</value>
</property>
</configuration>
- 修改 regionservers
vi regionservers
#指定regionserver节点
teacher1
teacher2
teacher3
- hbase的conf目录下创建文件backup-masters
vi backup-masters
teacher1
- 分发hbase目录和环境变量到其他节点
scp -r hbase-1.3.1 teacher1:/home/teacher/opt/module/
scp -r hbase-1.3.1 teacher3:/home/teacher/opt/module/
- 配置hbase的环境变量(三台服务器都要配置)
vi /etc/profile
export HBASE_HOME=/opt/bigdata/hbase
export PATH=$PATH:$HBASE_HOME/bin
source /etc/profile
集群启动
*前提条件:先启动hadoop和zk集群
启动hbase
start-hbase.sh
启动hbase停止
stop-hbase.sh
测试结果
http://ip地址:16010/master-status#baseStats