默认已经做好安装前准备,需要提前安装好Hadoop和Zookeeper。本次安装使用源码包进行安装
1.环境介绍
三台服务器:node01,node02,node03
CDH版本:5.14.0
Linux版本:CentOS7.5
2.下载HBase
3.安装HBase
在node01节点下执行,需要提前创建目录
解压
tar -zxvf /opt/hbase-1.2.0-cdh5.14.0.tar.gz -C /dbdata/hbase
目录重命名
mv /dbdata/hbase/hbase-1.2.0-cdh5.14.0 /dbdata/hbase/hbase-1.2.0
4.配置HBase
在node01节点下修改配置文件
cd /dbdata/hbase/hbase-1.2.0/conf
需要修改的配置文件:
1.
hbase-site.xml
2.
regionservers
3.
hbase-env.sh
4.
backup-masters(需要手动创建)
-
修改 hbase-site.xml
<configuration>
<property>
<name>hbase.rootdir</name>
<value>hdfs://node01:8020/hbase</value>
</property>
<property>
<name>hbase.master</name>
<value>node01</value>
</property>
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<property>
<name>hbase.zookeeper.quorum</name>
<value>node01,node02,node03</value>
</property>
<property>
<name>hbase.master.info.port</name>
<value>60010</value>
</property>
<property>
<name>hbase.zookeeper.property.clientPort</name>
<value>2181</value>
</property>
</configuration>
hbase.zookeeper.quorum:对应的zookeeper集群,不用加端口
hbase.cluster.distributed:是否开启分布式
hbase.rootdir:<--在HDFS上创建一个干净的节点,用于存放元数据-->
-
修改 regionservers
node01
node02
node03
-
修改 hbase-env.sh
# The java implementation to use. Java 1.7+ required.
export JAVA_HOME=/usr/local/jdk1.8.0_191
# Tell HBase whether it should manage it's own instance of Zookeeper or not.
export HBASE_MANAGES_ZK=false
-
创建 backup-masters
设置node02作为备份节点
mkdir -p /dbdata/hbase/hbase-1.2.0/conf
vi backup-masters
node02
5.拷贝node01的HBase安装目录给其他服务器
将hdfs当中的hdfs-site.xml 拷贝hbase的conf目录下(因为存储数据需要在hdfs上)
cp /dbdata/hadoop/hadoop-2.6.0/etc/hadoop/hdfs-site.xml /dbdata/hbase/hbase-1.2.0/conf/
将node01的HBase安装目录给其他服务器
scp -r /dbdata/hbase/hbase-1.2.0 node02:/dbdata/hbase/
scp -r /dbdata/hbase/hbase-1.2.0 node03:/dbdata/hbase/
--补充 拷贝hbase-site.xml
scp /dbdata/hbase/hbase-1.2.0/conf/hbase-site.xml node02:/dbdata/hbase/hbase-1.2.0/conf/
scp /dbdata/hbase/hbase-1.2.0/conf/hbase-site.xml node03:/dbdata/hbase/hbase-1.2.0/conf/
6.启动HBase
需要先启动Hadoop和Zookeeper
(1)
在node01主机上启动HDFS:
start-dfs.sh
mr-jobhistory-daemon.sh start historyserver
(2)
在node02主机上启动YARN:
start-yarn.sh
(3)
在node01,node02,node03分别启动Zookeeper Server
/opt/zookeeper/bin/zkServer.sh start
QuorumPeerMain代表 Zookeeper
(4)
在node01主机上启动HBase:
start-hbase.sh
启动之后通过jps查看
说明:
- zookeeper启动和hdfs没有关系,如果zookeeper启动失败,只需停止zookeeper重新启动,不需要关闭dfs
- hbase依赖zookeeper协调,因此必须先将zookeeper启动成功,再启动hbase
- zookeeper没有主从关系,需要每一台服务器逐个启动,但是hbase,只需要在中心主机启动就可以
7.配置HBase环境变量(可选步骤)
在node01下执行命令:
vi /etc/profile
export HBASE_HOME=/dbdata/hbase/hbase-1.2.0
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$ZK_HOME/bin:$HBASE_HOME/bin
source /etc/profile
同理在node02和node03下执行同样的操作