2021-05-19

#HBASE的完全分布式安装

    
    0、启动zookeeper、启动hdfs
    
    1、解压并且修改配置文件,配置文件目录在安装包的conf文件夹中
        $ tar -zxvf hbase-2.2.5-bin.tar.gz -C apps/
        
        0)配置/etc/profile
            export HBASE_HOME=/usr/hbase
            export PATH=$HBASE_HOME/bin:$PATH
        
        1)修改hbase-env.sh
            
            export JAVA_HOME=/usr/local/jdk1.8.0_73
            export HBASE_MANAGES_ZK=false
            
            注意;关于
            # export HBASE_MASTER_OPTS="$HBASE_MASTER_OPTS -XX:PermSize=128m -XX:MaxPermSize=128m -XX:ReservedCodeCacheSize=256m"
            # export HBASE_REGIONSERVER_OPTS="$HBASE_REGIONSERVER_OPTS -XX:PermSize=128m -XX:MaxPermSize=128m -XX:ReservedCodeCacheSize=256m"
            据说是1.7版本的JDK选项,1.8可以不配置

        2)修改hbase-site.xml
            
            <configuration>
            <property>
                <!-- 指定 hbase 在 HDFS 上存储的路径 -->
                <name>hbase.rootdir</name>
                <value>hdfs://myha/hbase126</value>
            </property>
            <property>
                <!-- 指定 hbase 是分布式的 -->
                <name>hbase.cluster.distributed</name>
                <value>true</value>
            </property>
            <property>
                <!-- 指定 zk 的地址,多个用“,”分割 -->
                <name>hbase.zookeeper.quorum</name>
                <value>hadoop1:2181,hadoop2:2181,hadoop3:2181,hadoop4:2181</value>
            </property>
            </configuration>
            
        3)修改regionservers
            
            把localhost修改为实际的机器
            
        4)修改backup-masters
            
            这个文件是不存在,需要创建
            
        5)最重要一步,要把 hadoop 的 hdfs-site.xml 和 core-site.xml 放到 hbase-1.2.6/conf 下
        
        6)将HBase安装包分发到其他节点
            
            分发之前先删除HBase目录下的docs文件夹(版本2之后没有了这个文件夹)
            scp -r /opt/hbase root@bigdata02:/opt/
            scp -r /opt/hbase root@bigdata03:/opt/
            
        7)同步时间
            
            HBase 集群对于时间的同步要求的比 HDFS 严格,所以,集群启动之前千万记住要进行 时间同步,要求相差不要超过 30s
            
#启动顺序
    1、    启动zk集群
    2、    启动HDFS
    3、    保证 ZooKeeper 集群和 HDFS 集群启动正常的情况下启动 HBase 集群 启动命令:start-hbase.sh,在哪台节点上执行此命令,哪个节点就是主节点
    4、    hbase.unsafe.stream.capability.enforce 在分布式情况下, 一定设置为false
        <property>
                <name>hbase.unsafe.stream.capability.enforce</name>
                <value>false</value>
            </property>
            
        hbase.rootdir 端口号与hadoop core-site.xml 中的fs.defaultFS保持严格一致,不然HMaster启动失败.
        
        http://bigdata01:60010
        (注意:集群启动后不能访问UI,检查HMaster进程,如果消失有可能是因为:
            1)时间同步
        
            2)JAR包配置(版本),
            
            3)有的HBASE版本默认不开启,
            <property>
                <name>hbase.master.info.port</name>
                <value>60010</value>
            </property>
            

        
    5、然后在 backup-masters 文件中配置的备节点上再启动一个 master 主进程
        
        

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值