hbase全分布式环境的搭建

目录

1、准备安装包并配置环境变量

2、对hbase的配置文件进行编辑

2.1 hbase-env.sh

2.2 hbase-site.xml

2.3 regionservers

2.4 backup-masters

3、Hadoop的两个配置文件拷到hbase的conf目录下

4、scp到slave1和slave2

5、启动hadoop和hbase

6、jps查看进程



1、准备安装包并配置环境变量

#JAVA
export JAVA_HOME=/opt/bigdata/jdk
export PATH=${JAVA_HOME}/bin:$PATH
export CLASSPATH=.:${JAVA_HOME}/lib/dt.jar:${JAVA_HOME}/lib/tools.jar
 
export JRE_HOME=${JAVA_HOME}/jre
 
#hbase
export HBASE_HOME=/opt/bigdata/hbase
export PATH=${HBASE_HOME}/bin:$PATH
 
#SCALA
export SCALA_HOME=/opt/bigdata/scala
export PATH=${SCALA_HOME}/bin:$PATH
 
#SPARK
export SPARK_HOME=/opt/bigdata/spark
export PATH=${SPARK_HOME}/bin:$PATH
 
#SBT
export SBT_HOME=/opt/bigdata/sbt
export PATH=${SBT_HOME}/bin:$PATH
 
#hadoop
export HADOOP_HOME=/opt/bigdata/hadoop
export PATH=${HADOOP_HOME}/bin:$PATH
 
export HADOOP_COMMON_LIB_NATIVE_DIR=${HADOOP_HOME}/lib/native
 
export HADOOP_OPTS="-Djava.library.path=${HADOOP_HOME}/lib"

2、对hbase的配置文件进行编辑

配置文件同样在$hbase_home/conf目录下

2.1 hbase-env.sh

这里我用的是hbase自带的zookeeper,所以👇这句保持注释状态

# export HBASE_MANAGES_ZK=true

[root@master hbase]# vim conf/hbase-env.sh 
 export JAVA_HOME=/opt/bigdata/jdk/

2.2 hbase-site.xml

[root@master hbase]# vim conf/hbase-site.xml 
<configuration>
<!--Here you have to set the path where you want HBase to store its built
     in zookeeper files.-->
<property>
<name>hbase.zookeeper.property.dataDir</name>
<value>/opt/bigdata/hbase/zookeeper</value>
</property>

<property>
 <name>hbase.cluster.distributed</name>
 <value>true</value>
</property>

<property>
 <name>hbase.rootdir</name>
 <value>hdfs://master:9000/hbase</value>
</property>

<property>
 <name>hbase.zookeeper.quorum</name>
 <value>master,slave1,slave2</value>
</property>

</configuration>

2.3 regionservers

[root@master hbase]# vim conf/regionservers 
slave1
slave2

2.4 backup-masters

[root@master hbase]# vim conf/backup-masters 
slave1

3、Hadoop的下面两个配置文件拷到hbase的conf目录下

hdfs-site.xml core-site.xml

4、scp到slave1和slave2

scp -r /opt/bigdata/spark slave1:/opt/bigdata/
scp -r /opt/bigdata/spark slave2:/opt/bigdata/

5、启动hadoop和hbase

[root@slave1 bigdata]# ./hadoop/sbin/start-all.sh
[root@master hbase]# ./bin/start-hbase.sh 

6、jps查看进程

[root@master hbase]# jps
8180 NameNode
8470 SecondaryNameNode
10936 Jps
10057 HMaster
9995 HQuorumPeer
8589 SparkSubmit
[root@master hbase]# ssh slave1
Last login: Mon Nov  4 11:09:05 2019 from master
[root@slave1 ~]# jps
8736 HQuorumPeer
7927 DataNode
8890 HMaster
9484 Jps
8813 HRegionServer
[root@slave1 ~]# ssh slave2
Last login: Tue Oct 29 15:35:16 2019 from slave1
[root@slave2 ~]# jps
8691 HRegionServer
8614 HQuorumPeer
9228 Jps
7950 DataNode

 

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值