hadoop spark hive 集群配置(六)hbae centos7

hbase:


master

修改 /etc/hosts 文件(三台机器都需要操作,操作过程如下图所示:

vi /etc/hosts

 
  1. 10.115.0.63 master
  2. 10.115.0.77 slave1
  3. 10.115.0.76 slave2

scp -r /etc/hosts slave1:/etc/ 
scp -r /etc/hosts slave2:/etc/

1. 注意开启hbase之前,需要将之前的hadoop集群开启

cd /usr/hadoop/hadoop-2.7.3/ 
./sbin/start-all.sh #启动hadoop

master\slave1\slave2

zkServer.sh start #三台机器

2. 同样先建立工作路径/usr/hbase,将/opt/soft下的hbase加压到工作路径中。

创建路径###解压缩###修改配置文件

mkdir -p /usr/hbase 
tar -zxvf /opt/soft/hbase-1.2.4-bin.tar.gz -C /usr/hbase

进入usr/hbase/hbase-1.2.4目录

cd /usr/hbase/hbase-1.2.4/ 
vim conf/hbase-env.sh #修改配置文件

 
  1. export HBASE_MANAGES_ZK=false
  2. export JAVA_HOME=/usr/java/jdk1.8.0_171
  3. export HBASE_CLASSPATH=/usr/hadoop/hadoop-2.7.3/etc/Hadoop

3.配置conf/hbase-site.xml

  • 要想运行完全分布式模式,加一个属性 hbase.cluster.distributed 设置为 true 然后把 hbase.rootdir 设置为HDFS的NameNode的位置hbase.rootdir:这个目录是region server的共享目录,用来持久化Hbase。URL需要是’完全正确’的,还要包含文件系统的scheme
  • hbase.cluster.distributed :Hbase的运行模式。false是单机模式,true是分布式模式。若为false,Hbase和Zookeeper会运行在同一个JVM里面。在hbase-site.xml配置zookeeper:当Hbase管理zookeeper的时候,你可以通过修改zoo.cfg来配置zookeeper,对于zookeepr的配置,你至少要在 hbase-site.xml中列出zookeepr的ensemble servers,具体的字段是 hbase.zookeeper.quorum.在这里列出Zookeeper集群的地址列表,用逗号分割。
  • hbase.zookeeper.property.clientPort:ZooKeeper的zoo.conf中的配置,客户端连接的端口。
  • hbase.zookeeper.property.dataDir:ZooKeeper的zoo.conf中的配置。对于独立的Zookeeper,要指明Zookeeper的host和端口。需要在 hbase-site.xml中设置。

vim conf/hbase-site.xml

 
  1. <configuration>
  2. <property>
  3.     <name>hbase.rootdir</name>
  4.     <value>hdfs://master:9000/hbase</value>
  5.   </property>
  6.   <property>
  7.     <name>hbase.cluster.distributed</name>
  8.     <value>true</value>
  9.   </property>
  10.   <property>
  11.     <name>hbase.master</name>
  12.     <value>hdfs://master:6000</value>
  13.   </property>
  14.   <property>
  15.     <name>hbase.zookeeper.quorum</name>
  16.     <value>master,slave1,slave2</value>
  17.   </property>
  18.   <property>
  19.     <name>hbase.zookeeper.property.dataDir</name>
  20.     <value>/usr/zookeeper/zookeeper-3.4.10</value>
  21.   </property>
  22. </configuration>

4 配置conf/regionservers

vim conf/regionservers

 
  1. slave1
  2. slave2

hadoop配置文件拷入hbase的目录下(当前目录为/usr/hbase/hbase-1.2.4/conf)

cd /usr/hbase/hbase-1.2.4/conf 
cp /usr/hadoop/hadoop-2.7.3/etc/hadoop/hdfs-site.xml . 
cp /usr/hadoop/hadoop-2.7.3/etc/hadoop/core-site.xml .

6.分发hbase

scp -r /usr/hbase root@slave1:/usr/ 
scp -r /usr/hbase root@slave2:/usr/

7.配置环境变量

vim /etc/profile

 
  1. export HBASE_HOME=/usr/hbase/hbase-1.2.4
  2. export PATH=$PATH:$HBASE_HOME/bin

source /etc/profile

scp -r /etc/profile root@slave1:/etc/ 
scp -r /etc/profile root@slave2:/etc/


在slave1和slave2上:

source /etc/profile


9. 运行和测试在master上执行:

直接运行这个命令需要将HBASE的bin目录也加入到/etc/environment中,出现HMaster进程

cd /usr/hbase/hbase-1.2.4/bin 
start-hbase.sh

查看主节点进程

jps


slave1 slave2

jps


10 访问

http://master IP:16010/master-status

11.进hbase 交互界面,查看状态与版本。。

hbase shell

退出用exit

status 
version

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值