安装准备:
hbase底层数据存储在 hdfs的
计算 依赖于 mapreduce的
依赖于zk做协调服务
hadoop
zookeeper
jdk
安装节点:
分布式的
架构 主从 一主多从 多主多从
对zk的依赖性很强
正常部署集群的时候 zookeeper单独独立出来
2主(高可用) 3从
集群规划:
hdp01 hdp02 hdp03
master master
regionserver regionserver regionserver
安装版本:
安装版本一定十分谨慎
版本 和 jdk hadoop的版本 都存在兼容性问题
hbase 1.2.6 版本
安装步骤:
1)上传
2)解压
tar -xvzf hbase-1.2.6-bin.tar.gz
3)配置环境变量
sudo vi /etc/profile
export HBASE_HOME=/home/hadoop/apps/hbase-1.2.6
export PATH=
P
A
T
H
:
PATH:
PATH:HBASE_HOME/bin
source /etc/profile
4)修改配置文件
/home/hadoop/apps/hbase-1.2.6/conf
1)vi hbase-env.sh
export JAVA_HOME=/home/hadoop/apps/jdk1.8.0_73
Tell HBase whether it should manage it's own instance of Zookeeper or not.
export HBASE_MANAGES_ZK=false
注意: #注释一定删除了
2) vi hbase-site.xml
指定我们的集群zk地址
<property>
<!-- 指定 hbase 在 HDFS 上存储的路径 -->
<name>hbase.rootdir</name>
<value>hdfs://bd1901/user/hbase/hbasedata</value>
</property>
<property>
<!-- 指定 hbase 是分布式的 -->
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<property>
<!-- 指定 zk 的地址,多个用“,”分割 -->
<name>hbase.zookeeper.quorum</name>
<value>hadoop01:2181,hadoop02:2181,hadoop03:2181</value>
</property>
3) vi regionservers
配置的是从节点信息
一行一个
hadoop01
hadoop02
hadoop03
4)手动创建一个 vi backup-masters
配置备份主节点的
hadoop03
5)将hadoop的 core-site hdfs-site 拷贝到 hbase的conf下
cp core-site.xml hdfs-site.xml /home/hadoop/apps/hbase-1.2.6/conf/
5)远程发送
scp -r hbase-1.2.6 hadoop02:/home/hadoop/apps/
scp -r hbase-1.2.6 hadoop03:/home/hadoop/apps/
6)分别修改hdp02 hdp03环境配置
sudo vi /etc/profile
export HBASE_HOME=/home/hadoop/apps/hbase-1.2.6
export PATH=
P
A
T
H
:
PATH:
PATH:HBASE_HOME/bin
source /etc/profile
7)进入到/home/hadoop/apps/hbase-1.2.6/bin 再启动
start-hbase.sh 在个节点启动哪个节点就为master