【Hadoop】hbase 集群安装

如果饿了就吃,困了就睡,渴了就喝,人生就太无趣了


1 环境准备

1.1 虚拟机准备

序号hostip操作系统hadoop节点zookeeper节点
1master192.168.14.15centOS7主节点2181端口
2slave0192.168.14.16centOS7从节点2181端口
3slave1192.168.14.17centOS7从节点2181端口

1.2 host配置

三台虚拟机都是一样的配置:

在这里插入图片描述

1.3 Hadoop环境准备

hadoop的集群搭建可以参考之前写的文章:https://blog.csdn.net/weixin_41938180/article/details/114310839

1.4 zookeeper环境准备

zookeeper 的集群安装可以参考之前写的文章:https://blog.csdn.net/weixin_41938180/article/details/114367966

2 下载安装包

安装包下载:https://www.apache.org/dyn/closer.lua/hbase/2.3.4/hbase-2.3.4-bin.tar.gz
将下载好的安装包解压之后修改配置,先下载到一个节点后,修改完配置发送到其他节点。

3 配置文件修改

所有的文件都在conf目录下。

3.1 修改hbase-env配置

修改hbase-env.sh文件,添加配置:

  • 第一个配置本机的JAVA_HOME
  • 第二个是不使用内部zookeeper
export JAVA_HOME=/home/jdk1.8.0_231/
# 不使用内部zookeeper
export HBASE_MANAGES_ZK=false

如图,之前应该是注释掉了,可以打开注释,进行修改
在这里插入图片描述
在这里插入图片描述

3.2 修改hbase-site配置

修改 conf目录下hbase-site.xml文件,全部内容如下:

<configuration>
    <property>
        <name>hbase.tmp.dir</name>
        <value>./tmp</value>
    </property>
    <property>
        <name>hbase.unsafe.stream.capability.enforce</name>
        <value>false</value>
    </property>
    <property>
        <!-- 指定 hbase 在 HDFS 上存储的路径 -->
        <name>hbase.rootdir</name>
        <value>hdfs://master:9000/hbase</value>
    </property>
    <property>
        <!-- 指定 hbase 是分布式的 -->
        <name>hbase.cluster.distributed</name>
        <value>true</value>
    </property>
    <property>
        <!-- 指定 zk 的地址,多个用“,”分割 -->
        <name>hbase.zookeeper.quorum</name>
        <value>master:2181,slave0:2181,slave1:2181</value>
    </property>
</configuration>

3.3 修改regionservers配置

修改conf文件夹下regionservers文件,文件内容就是集群节点的host名称集合,根据实际情况自行配置:

master
slave0
slave1

3.4 复制hadoop配置

要把hadoop 的配置文件hdfs-site.xmlcore-site.xml 放到 hbaseconf 目录下:

cp /opt/hadoop/hadoop/etc/hadoop/core-site.xml hdfs-site.xml /opt/hbase/conf/

3 集群安装

3.1 安装包发送其他节点

保证其他俩个节点的java位置和master节点的安装位置一样。
将配置好的软件包分别发送到其他两个节点:slave0,slave1

scp -r /opt/habse slave0:/opt
scp -r /opt/habse slave1:/opt

3.2 启动zookeeper集群

启动zookeeper集群,每个节点都启动

zkServer.sh start

3.3 启动hadoop集群

启动hadoop集群,在主节点启动即可

start-all.sh

3.4 启动hbase集群

运行bin目录下的start-hbase.sh脚本,即可

./start-hbase.sh

3.5 停止hbase集群

运行bin目录下的stop-hbase.sh脚本,即可

./stop-hbase.sh

4 验证安装

使用jps命令查看各个节点启动情况,hbase在哪个节点启动,哪个节点是主节点,主节点会启动HMasterHRegionServer,从节点会启动HRegionServer
master节点:
在这里插入图片描述

slave0:
在这里插入图片描述

slave1:
在这里插入图片描述

在浏览器访问: http://192.168.14.15:16010,会看到相应的hbase情况,这样就是启动成功了。
在这里插入图片描述

5 参考文档

https://www.cnblogs.com/qingyunzong/p/8668880.html

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值