1.官网下载hbase安装包
这里不做赘述。
2.解压
---直接tar -zxvf xxxx
3.修改配置文件
配置hbase集群,要修改3个文件(首先zk+HA集群已经安装好了)
(1)修改hbase-env.sh
vi hbase-env.sh
export JAVA_HOME=/usr/local/jdk1.8.0_201
export HBASE_CLASSPATH=/usr/local/hbase-0.98.14-hadoop2/conf
export HBASE_MANAGES_ZK=false
(2)修改hbase-site.xml
<configuration>
<!-- 指定 hbase 在 HDFS 上存储的路径 -->
<property>
<name>hbase.rootdir</name>
<value>hdfs://ns1/hbase</value>
</property>
<!-- 指定 hbase 是分布式的 -->
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<!-- 指定 zk 的地址,多个用“,”分割 -->
<property>
<name>hbase.zookeeper.quorum</name>
<value>wyh:2181,ai-lab:2181</value>
</property>
<property>
<name>dfs.replication</name>
<value>2</value>
</property>
<property>
<name>zookeeper.znode.parent</name>
<value>/hbase</value>
</property>
<property>
<name>hbase.zookeeper.property.dataDir</name>
<value>/home/wyh/zk_data</value>
</property>
</configuration>
(3)修改regionservers
集群的主机地址
wyh
ai-lab
(4)修改hdfs-site.xml 和 core-site.xml
最重要一步,要把 hadoop 的 hdfs-site.xml 和 core-site.xml 放到 hbase-1.2.6/conf 下
wyh@wyh:/usr/local/hadoop-2.10.0/etc/hadoop$ cp hdfs-site.xml /usr/local/hbase-0.98.14-hadoop2/conf
wyh@wyh:/usr/local/hadoop-2.10.0/etc/hadoop$ cp core-site.xml /usr/local/hbase-0.98.14-hadoop2/conf
(5)将HBase安装包分发到其他节点
分发之前先删除HBase目录下的docs文件夹,
rm -rf docs/
scp -r hbase-0.98.14-hadoop2 wyh@ai-lab:/usr/local
(6)配置环境变量
所有服务器都有进行配置
vim ~/.bashrc
#hbase
export HBASE_HOME=/usr/local/hbase-0.98.14-hadoop2
export PATH=$PATH:$HBASE_HOME/bin
使环境变量立即生效
source ~/.bashrc
4 启动HBase集群
1、启动zookeeper集群
开启命令 bin/zkServer.sh start
2、启动HDFS集群及YARN集群
启动hdfs和yarn命令
start-dfs.sh
start-yarn.sh
start-all.sh ##启动全部,相当于以上两个指令
3、启动HBase
保证 ZooKeeper 集群和 HDFS 集群启动正常的情况下启动 HBase 集群 启动命令:start-hbase.sh,在哪台节点上执行此命令,哪个节点就是主节点
start-hbase.sh
参考: