大数据学习之HBase——02Hbase搭建

一. 前提

  1. HBase 依赖于 HDFS 做底层的数据存储

  2. HBase 依赖于 MapReduce 做数据计算

  3. HBase 依赖于 ZooKeeper 做服务协调

  4. HBase源码是java编写的,安装需要依赖JDK

二. 单机版本

  1. 由于之前已经在node02、node03、node04三台主机上搭建了zookeeper集群,所以现在在node01上搭建。
    上传以下三个包到node01
    在这里插入图片描述

  2. 解压:hbase-0.98.12.1-hadoop2-bin.tar.gz

    tar -zxvf hbase-0.98.12.1-hadoop2-bin.tar.gz
    
  3. 修改环境变量:

    vi /etc/profile
    export HBASE_HOME=/opt/hjf/hbase
    

    在这里插入图片描述

  4. 修改配置文件hbase-env.sh:

    vi /opt/hjf/hbase/conf/hbase-env.sh
    
    export JAVA_HOME=/usr/java/jdk1.7.0_67
    

    在这里插入图片描述

  5. 配置hbase-site.xml

    vi /opt/hjf/hbase/conf/hbase-site.xml
    
    <configuration>
    <property>
    <name>hbase.rootdir</name>
    <value>file:///home/testuser/hbase</value>
    </property>
    <property>
    <name>hbase.zookeeper.property.dataDir</name>
    <value>/home/testuser/zookeeper</value>
    </property>
    </configuration>
    
  6. 启动HBASE:

    start-hbase.sh
    

    在这里插入图片描述

  7. 浏览器访问:
    http://node01:60010/

三. hbase完全分布式安装:

1. 准备工作
  1. 网络

  2. hosts

  3. ssh

    ssh-keygen
    ssh-copy-id -i .ssh/id_rsa.pub node1
    
  4. 时间:各个节点的时间必须一致
    时间服务器

    yum install ntpdate -y
    ntpdate ntp1.aliyun.com
    
  5. jdk版本

2. 解压配置
  1. hbase-env.sh

    JAVA_HOME	
    HBASE_MANAGES_ZK=false      【是否使用默认的zk集群】
    
  2. hbase-site.xml

    <property>
    	<name>hbase.rootdir</name>
    	<value>hdfs://mycluster/hbase</value>  
    </property>
    <property>
    	<name>hbase.cluster.distributed</name>
    	<value>true</value>
    </property>
    <property>
    	<name>hbase.zookeeper.quorum</name>
    	<value>node02,node03,node04</value>
    </property>
    

    注:需要和dfs.nameservices属性设置的值相同

    <property> 
    	<name>hbase.rootdir</name>
    	<value>hdfs:// mycluster/hbase</value>  
    </property>
    

    在这里插入图片描述

  3. regionservers【自带】
    在这里插入图片描述

    node2
    node3
    node4
    

    在这里插入图片描述

  4. backup-masters【需要自己建】
    在这里插入图片描述

    node4
    

    在这里插入图片描述

    【写备机主机,node01上启动写node04,node04上启动写node01】

  5. 拷贝hdfs-site.xml 到conf目录

    cp /opt/hjf/hadoop/etc/hadoop/hdfs-site.xml ./
    

    在这里插入图片描述

  6. 分发hbase 安装包:

    scp -r hbase/ node02:`pwd`
    scp -r hbase/ node03:`pwd`
    scp -r hbase/ node04:`pwd`
    
3. 启动Hbase
  1. 启动集群

    start-hbase.sh
    

    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述

  2. 浏览器访问:
    http://node01:60010/
    在这里插入图片描述

  3. 启动具体节点

    hbase-daemon.sh start master
    hbase-daemon.sh start regionserver 
    
展开阅读全文

没有更多推荐了,返回首页

©️2019 CSDN 皮肤主题: 创作都市 设计师: CSDN官方博客
应支付0元
点击重新获取
扫码支付

支付成功即可阅读