HBase的集群环境搭建

  • 前提

HBase强依赖zookeeper和hadoop,安装HBase之前一定要保证zookeeper和hadoop启动成功,且服务正常运行

 

 

  • 下载安装包

所有关于CDH版本的软件包下载地址如下

http://archive.cloudera.com/cdh5/cdh/5/

 

HBase对应的版本下载地址如下

http://archive.cloudera.com/cdh5/cdh/5/hbase-1.2.0-cdh5.14.0.tar.gz

 

 

  • 上传解压安装包

上传

 

解压

tar -zxvf ./hbase-1.2.0-cdh5.14.0.tar.gz -C ../servers/

 

 

  • 修改配置文件(主节点)

hbase-env.sh

进入配置目录

cd /export/servers/hbase-1.2.0-cdh5.14.0/conf 

vim ./hbase-env.sh

 

配置

export JAVA_HOME=${JAVA_HOME} 

export HBASE_MANAGES_ZK=false

 

hbase-site.xml

进入配置目录

cd /export/servers/hbase-1.2.0-cdh5.14.0/conf
vim ./hbase-site.xml

 

配置

<configuration>
        <property>
                <name>hbase.rootdir</name>
                <value>hdfs://node001:8020/hbase</value> 
        </property>
        <property>
                <name>hbase.cluster.distributed</name>
                <value>true</value>
        </property>
   <!-- 0.98后的新变动,之前版本没有.port,默认端口为60000 -->
        <property>
                <name>hbase.master.port</name>
                <value>16000</value>
        </property>
        <property>
                <name>hbase.zookeeper.quorum</name>
                <value>node001:2181,node002:2181,node003:2181</value>
        </property>
        <property>
                <name>hbase.zookeeper.property.dataDir</name>
                 <value>/export/servers/zookeeper-3.4.5-cdh5.14.0/zkdata</value>
        </property>
</configuration>

 

regionservers(决定哪些节点是工作者)

进入配置目录

cd /export/servers/hbase-1.2.0-cdh5.14.0/conf
vim ./regionservers

 

配置

node001
node002
node003

 

创建back-masters配置文件,实现HMaster的高可用(决定哪些节点为管理者)

如果一个管理者失效其他的预备管理者会顶替他

进入配置目录

cd /export/servers/hbase-1.2.0-cdh5.14.0/conf
vim ./backup-masters

 

配置

node001
node002
node003

 

 

  • 安装包分发到其他机器

将主节点的hbase的安装包拷贝到其他机器上面去

cd /export/servers/
scp  -r ./hbase-1.2.0-cdh5.14.0  node002:$PWD
scp  -r ./hbase-1.2.0-cdh5.14.0  node003:$PWD

 

 

  • 三台机器创建软连接

因为hbase需要读取hadoop的core-site.xml以及hdfs-site.xml当中的配置文件信息,所以我们三台机器都要执行以下命令创建软连接

ln -s /export/servers/hadoop-2.6.0-cdh5.14.0/etc/hadoop/core-site.xml /export/servers/hbase-1.2.0-cdh5.14.0/conf/core-site.xml
ln -s /export/servers/hadoop-2.6.0-cdh5.14.0/etc/hadoop/hdfs-site.xml /export/servers/hbase-1.2.0-cdh5.14.0/conf/hdfs-site.xml

 

 

  • 添加HBASE_HOME的环境变量(所有节点)

主节点

进入配置目录并创建配置文件

cd /etc/profile.d/
vim ./hbase.sh

 

配置

export HBASE_HOME=/export/servers/hbase-1.2.0-cdh5.14.0
export PATH=$PATH:$HBASE_HOME/bin

 

将配置文件分发到其他节点

cd /etc/profile.d/
scp -r ./hbase.sh node002:$PWD
scp -r ./hbase.sh node003:$PWD    

 

每个节点使环境生效

source /etc/profile

 

 

  • HBase集群启动

主节点执行以下命令进行启动

cd /export/servers/hbase-1.2.0-cdh5.14.0/bin/
./start-hbase.sh

 

警告提示:

HBase启动的时候会产生一个警告,这是因为jdk7与jdk8的问题导致的,如果linux服务器安装jdk8就会产生这样的一个警告

我们可以只是掉所有机器的hbase-env.sh当中的

“HBASE_MASTER_OPTS”和“HBASE_REGIONSERVER_OPTS”配置来解决这个问题。不过警告不影响我们正常运行,可以不用解决

 

我们也可以执行以下命令单节点进行启动

启动HMaster命令
./hbase-daemon.sh start master
启动HRegionServer命令
./hbase-daemon.sh start regionserver

 

为了解决HMaster单点故障问题,我们可以在从节点上面都可以启动HMaster节点的进程,以实现HMaster的高可用

cd /export/servers/hbase-1.2.0-cdh5.14.0/bin/
./hbase-daemon.sh start master

 

 

  • 页面访问

浏览器页面访问

http://192.168.100.200:60010/master-status

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值