hbase的集群搭建

目录

hbase的集群搭建

 

安装准备

安装步骤

      配置环境变量

      配置hbase-env.sh

      配置hbase-site.xml

      配置backup-masters

      配置conf/regionservers 

把hadoop的配置文件core-site.xml和hdfs-site.xml复制到hbase的配置文件目录下

把hbase安装目录分发给其他节点

在全部节点的环境变量配置文件中加入HBASE_HOME

启动集群

 首先启动zookeeper集群

 然后启动HDFS集群

 最后启动hbase集群

测试

查看进程启动情况

访问WEB页面进行验证

测试是否可以进入hbase命令行


hbase的集群搭建

 

安装准备

安装步骤

       将下好的hbase安装包上传至服务器然后解压至合适的目录中

 tar -zxvf hbase-2.0.0-bin.tar.gz -C /root/opt/
  •       配置环境变量

    export HBASE_HOME=/root/opt/hbase-2.0.0
    
    export PATH=$PATH:$HBASE_HOME/bin
    使环境变量生效并验证环境变量生效
    
    source /etc/profile
    
    检测:hbase version

     

  •       配置hbase-env.sh

       /root/opt/hbase-2.0.0/conf
    [hadoop@hadoop01 conf]# vi hbase-env.sh 
    
    # 加入JAVA_HOME
    export JAVA_HOME=/root/opt/jdk1.8.0_73
    # 指定不使用自带的zookeeper
    export HBASE_MANAGES_ZK=false

      

  •       配置hbase-site.xml

                /root/opt/hbase-2.0.0/conf

[hadoop@hadoop01 ~]$ vi hbase-site.xml

<configuration>
    <!--
    可以不配置,如果要配置,需要和zookeeper配置文件zoo.cfg中的dataDir指定的路径相同
    zoo.cfg中dataDir=/var/zookeeper
    那么:
    <property>
        <name>hbase.zookeeper.property.dataDir</name>
        <value>/var/zookeeper</value>
    </property>
    -->
    
    <!--指定hbase的数据在hdfs上存放的位置-->
    <property>
        <name>hbase.rootdir</name>
        <value>hdfs://jed/user/hbase</value>这个路径可以写成本机的
        <value>/root/data/hbase</value>
    </property>
    
    <!--指定hbase集群为分布式集群-->
    <property>
        <name>hbase.cluster.distributed</name>
        <value>true</value>
    </property>
    <property>
        <name>hbase.master.info.port</name>
        <value>60010</value>
    </property>
    
    <!--指定zookeeper集群-->
    <property>
        <name>hbase.zookeeper.quorum</name>
        <value>master:2181,slave001:2181,slave002:2181</value>
    </property>
</configuration>
[hadoop@hadoop01 conf]$ vi backup-masters

# 添加备用hbase-master
slave001
  •      配置backup-masters

    # 如果backup-masters文件没有则创建 在hbase的conf目录下面
    
    vi backup-masters
    # 配置备份的Master机器
    slave01

     

  •       配置conf/regionservers 

[hadoop@hadoop01 conf]$ vi regionservers

# 默认有一行localhost,删除
maseter
slave001
slave002

把hadoop的配置文件core-site.xml和hdfs-site.xml复制到hbase的配置文件目录下

[hadoop@hadoop01 conf]$ cp /root/opt/hadoop-2.7.4/conf/core-site.xml  /root/opt/hbase/conf
[hadoop@hadoop01 conf]$ cp /root/opt/hadoop-2.7.4/conf/hdfs-site.xml  /root/opt/hbase/conf

把hbase安装目录分发给其他节点

[hadoop@hadoop01 opt]$ scp -r hbase-2.0.0 slave001:`pwd`
[hadoop@hadoop01 opt]$ scp -r hbase-2.0.0 slave002:`pwd`

在全部节点的环境变量配置文件中加入HBASE_HOME

 

启动集群

首先启动zookeeper集群

zkServer.sh start

然后启动HDFS集群

start-dfs.sh

 最后启动hbase集群

[hadoop@hadoop01 ~]$ start-hbase.sh

测试

查看进程启动情况

如果有节点相应的进程没有启动,那么可以手动启动

  • hbase-daemon.sh start master
  • hbase-daemon.sh start regionserver

访问WEB页面进行验证

 

 

测试是否可以进入hbase命令行

Kill -9 12395

杀掉master的Hmaster的进程:查看wenb页面slave001的Hmaster的状态是active就证明是高可用。

至此,hbase完全分布式集群搭建成功! 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
本项目是一个基于SpringBoot开发的华府便利店信息管理系统,使用了Vue和MySQL作为前端框架和数据库。该系统主要针对计算机相关专业的正在做毕设的学生和需要项目实战练习的Java学习者,包含项目源码、数据库脚本、项目说明等,有论文参考,可以直接作为毕设使用。 后台框架采用SpringBoot,数据库使用MySQL,开发环境为JDK、IDEA、Tomcat。项目经过严格调试,确保可以运行。如果基础还行,可以在代码基础之上进行改动以实现更多功能。 该系统的功能主要包括商品管理、订单管理、用户管理等模块。在商品管理模块中,可以添加、修改、删除商品信息;在订单管理模块中,可以查看订单详情、处理订单状态;在用户管理模块中,可以注册、登录、修改个人信息等。此外,系统还提供了数据统计功能,可以对销售数据进行统计和分析。 技术实现方面,前端采用Vue框架进行开发,后端使用SpringBoot框架搭建服务端应用。数据库采用MySQL进行数据存储和管理。整个系统通过前后端分离的方式实现,提高了系统的可维护性和可扩展性。同时,系统还采用了一些流行的技术和工具,如MyBatis、JPA等进行数据访问和操作,以及Maven进行项目管理和构建。 总之,本系统是一个基于SpringBoot开发的华府便利店信息管理系统,使用了Vue和MySQL作为前端框架和数据库。系统经过严格调试,确保可以运行。如果基础还行,可以在代码基础之上进行改动以实现更多功能。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值