Zookeeper启动
/home/zk.sh start
Zookeeper启停脚本 https://blog.csdn.net/weixin_44371237/article/details/127102471
Hadoop启动
/home/hadoop.sh start
Hadoop启停脚本 https://blog.csdn.net/weixin_44371237/article/details/126040977
安装HBase
下载 https://dlcdn.apache.org/hbase/2.4.14/hbase-2.4.14-bin.tar.gz
解压
tar -xvf hbase-2.4.14-bin.tar.gz
移动
mv hbase-2.4.14 /opt/module/hbase
添加环境变量
vim /etc/profile.d/my_env.sh
#HBASE_HOME
export HBASE_HOME=/opt/module/hbase
export PATH=$PATH:$HBASE_HOME/bin
分发到其他服务器
/home/xsync /etc/profile.d/my_env.sh
生效配置文件
source /etc/profile.d/my_env.sh
修改配置文件conf/hbase-env.sh,改成使用我们自己安装的zookeeper,添加
export HBASE_MANAGES_ZK=false
修改hbase-site.xml
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
删除
<property>
<name>hbase.tmp.dir</name>
<value>./tmp</value>
</property>
<property>
<name>hbase.unsafe.stream.capability.enforce</name>
<value>false</value>
</property>
添加
<property>
<name>hbase.zookeeper.quorum</name>
<value>hadoop100,hadoop101,hadoop102</value>
<description>The directory shared by RegionServers.</description>
</property>
<!-- <property>-->
<!-- <name>hbase.zookeeper.property.dataDir</name>-->
<!-- <value>/export/zookeeper</value>-->
<!-- <description> 记得修改 ZK 的配置文件 -->
<!-- ZK 的信息不能保存到临时文件夹-->
<!-- </description>--> <!-- </property>-->
<property>
<name>hbase.rootdir</name>
<value>hdfs://hadoop100:8020/hbase</value>
<description>The directory shared by RegionServers.</description>
</property>
编辑regionservers,添加如下
hadoop100
hadoop101
hadoop102
解决HBase和Hadoop的log4j兼容性问题,修改 HBase 的 jar 包,使用 Hadoop 的 jar
mv /opt/module/hbase/lib/client-facing-thirdparty/slf4j-reload4j-1.7.33.jar /opt/module/hbase/lib/client-facing-thirdparty/slf4j-reload4j-1.7.33.jar.bak
分发整个/opt/module/hbase目录
/home/xsync /opt/module/hbase
单点启动
bin/hbase-daemon.sh start master
bin/hbase-daemon.sh start regionserver
集群启动
bin/start-hbase.sh
集群停止
bin/stop-hbase.sh
页面URL
http://hadoop100:16010/
高可用
在conf目录创建 backup-masters 文件
vim backup-masters 加入
hadoop101
在web页面中 http://hadoop100:16010/ ,可以看到如下