Hbse的完全分布式搭建

搭建步骤:
首先确保时间同步,各个节点之间
第一步:将hbase解压到指定路径下
第二步:配置环境变量

export HBASE_HOME=/opt/hbase/hbase-1.2.1
export PATH=$PATH:$HBASE_HOME/bin:

完了使资源配置生效

第三步:修改hbase-env.sh

# The java implementation to use.  Java 1.7+ required.
export JAVA_HOME=/usr/java/jdk1.8
# Tell HBase whether it should manage it's own instance of Zookeeper or not.
export HBASE_MANAGES_ZK=false       #hbase内置zookeeper关闭

第四步:修改hbase-site.xml

<!-- 修改hbase的存储路径为HDFS内-->
<property>
    <name>hbase.rootdir</name>
    <value>hdfs://qf/hbase</value>
</property>
<!-- 开启用hbase集群模式 -->
<property>
    <name>hbase.cluster.distributed</name>
    <value>true</value>
</property>
<!--将属性hbase.unsafe.stream.capability.enforce 改为true -->
<property>
    <name>hbase.unsafe.stream.capability.enforce</name>
    <value>true</value>
</property>
<!-- 指定hbase使用的zookeeper集群 -->
<property>
    <name>hbase.zookeeper.quorum</name>
    <value>NameNode:2181,DataNode01:2181,DataNode02:2181</value>
</property>

第五步:.配置RegionServer所在的节点信息

vi ./conf/regionservers

NameNode
DataNode01
DataNode02

第六步:

配置备份HMaster:创建backup-masters文件
vi ./conf/backup-masters
添加你第二台主节点
DataNode01

第七步:将hadoop的core-site.xml和hdfs-site.xml放入conf目录内

 cd $HADOOP_HOME/etc/hadoop/
 cp core-site.xml hdfs-site.xml $HBASE_HOME/conf/

第八步:

将hbase分发到集群其他相关节点上 
scp -r /opt/hbase/hbase-1.2.1DataNode01:/opt/apps/ 
scp -r /opt/hbase/hbase-1.2.1 DataNode02:/opt/apps/ 
并且把环境变量配置了

第九步:``启动集群 启动zookeeper集群 启动hdfs集群 启动hbase服务

 启动hbase服务
 start-hbase.sh
 测试
 hbase shell
 

出现如下就可以了
在这里插入图片描述

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值