企业级高可用也称为(HA)HDFS集群拥有多个NameNode节点,防止NameNode机器发生意外等导致集群无法使用,要在高可用的HDFS上部署HBASE集群,平常方式部署的就集群如果配置文件中所配置的NameNode宕机那么HBASE集群将不能使用,要在高可用的HDFS上部署HBASE看一下步骤:
1、下载所需安装包,官网下载地址:http://hbase.apache.org/ 或者回复:“hbase安装包”获取。
hbase-1.3.1-bin.tar.gz
2.、部署HDFS的HA集群以及Zookeeper集群,部署方式看:企业级HDFS
3、部署HBASE集群
3.1、上传HBASE安装包到Linux服务器
3.2、解压hbase-1.3.1-bin.tar.gz
tar -zxvf /opt/soft/hbase-1.3.1-bin.tar.gz -C /opt/module/
3.3、修改HBASE配置文件
#hbase-env.sh修改内容,找到export JAVA_HOME和export HBASE_MANAGES_ZK修改为一下配置export JAVA_HOME=/opt/module/jdk1.8.0_121export HBASE_MANAGES_ZK=false#hbase-site.xml修改内容#"mycluster"是hdfs的core-site.xml配置文件的fs.defaultFS属性的value值<property> <name>hbase.rootdirname> <value>hdfs://mycluster/hbasevalue> property> <property> <name>hbase.cluster.distributedname> <value>truevalue> property> <property> <name>hbase.master.portname> <value>16000value> property> <property> <name>hbase.zookeeper.quorumname> <value>bigdata111:2181,bigdata112:2181,bigdata113:2181value> property> <property> <name>hbase.zookeeper.property.dataDirname> <value>/opt/module/zookeeper-3.4.10/zkDatavalue> property> #regionservers修改内容:添加regionserver节点所在的主机名 bigdata111 bigdata112 bigdata113
3.4、配置HBASE的环境变量
vi /etc/profileexport HBASE_HOME=/opt/module/hbase-1.3.1export PATH=$HBASE_HOME/bin:$PATHsource /etc/profile
3.5、将HDFS的core-site.xml、hdfs-site.xml配置文件拷贝到HBASE的conf目录中
cp $HADOOP_HOME/etc/hadoop/core-site.xml $HBASE_HOME/confcp $HADOOP_HOME/etc/hadoop/hdfs-site.xml $HBASE_HOME/conf
3.6、HBase远程scp到其他集群
scp -r /opt/module/hbase-1.3.1/ bigdata112:/opt/module/scp -r /opt/module/hbase-1.3.1/ bigdata113:/opt/module/
3.7、HBase服务的启动,注时间同步点击:走进大数据丨 部署NTP时间同步服务器
启动方式1:bin/hbase-daemon.sh start masterbin/hbase-daemon.sh start regionserver尖叫提示:如果集群之间的节点时间不同步,会导致regionserver无法启动,抛出ClockOutOfSyncException异常。启动方式2:bin/start-hbase.sh对应的停止服务:bin/stop-hbase.sh
到此,HDFS HA集群搭建HBASE集群成功,不论HBFS的Active的NameNode是否宕机都不会影响HBASE集群。