配置步骤
- 修改环境变量
export HBASE_HOME=/usr/local/hbase
export PATH=$PATH:$HBASE_HOME/bin:
- 修改HBase的配置文件#HBASE_HOME/conf/hbase-env.sh
export JAVA_HOME=usr/local/jdk/
export HBASE_MANAGES_ZK=true //HBase是否管理它自己的ZooKeeper的实例。
- 修改HBase的配置文件#HBASE_HOME/conf/hbase-site.xml
<property>
<name>hbase.rootdir</name>
<value>hdfs://Master:9000/hbase</value>
</property>
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<property>
<name>hbase.zookeeper.quorum</name>
<value>Master</value>
</property>
<property>
<name>dfs.replication</name>
<value>3</value> //集群中主机个数
</property>
注意:
HBASEHOME/conf/hbase−site.xml的hbase.rootdir的主机和端口号与
HADOOP_HOME/conf/core-site.xml的fs.default.name的主机和端口号一致
regionservers 的内容修改为Master(可改可不改)
切换目录到..hbase/bin ,执行命令 start-hbase.sh
启动hbase之前,确保hadoop是运行正常的。并且可以写入文件。验证
1.执行jps,发现新增加了3个Havana进程,分别是HMaster、HRegionServer、HQuorumPeer (HQuorumPeerMain 是ZooKeeper的进程 )
备注:启动HBase时,请先执行 /usr/local/zookeeper/bin zkServer.sh stop 停止ZooKeeper的进程,以免hbase启动失败。
2.通过浏览器查看: http://master:60010集群结构,主节点(Hmaster)是Master,从节点(Regionserver)是Slave1,Slave2
修改Master上的hbase的几个文件
修改hbase-env.sh 最后一行 export HBASE_MANAGES_ZK=false.
修改hbase-site.xml文件的hbase.zookeeper.quorum的值为Master,Slave1,Slave2。
修改regionservers文件(存放的 region server的hostname),内容修改成Slave1,Slave2
- 复制Master中的hbase到Slave1,Slave2的对应目录下,并复制Master 的/etc/profile文件中关于HBase环境变量到Slave1、Slave2中
[root@Master local]#scp -r hbase Slave1:/usr/local/
[root@Master local]#scp -r /etc/profile Slave1:/etc/profile
[root@Master local]#source /etc/profile
在Hadoop集群中,首先各个节点启动ZooKeeper集群(先Slave再Master),其次 Master中启动hadoop集群,最后在Master上启动hbase集群
测试Hbase是否启动正常
在Master主机中执行jps,查看进程:新增一个 HMaster 进程。
在Slave节点中执行 jps,新增HRegionServer进程。
- 执行hbase脚本命令,启动HBase shell
[root@Slave2 local]# hbase shell