基于前边hadoop2.6.5集群上搭建的Hbase集群hbase版本为1.2.4
1.上传hbase安装包
2.解压
3.配置hbase集群,要修改3个文件(首先zk集群已经安装好了)
3.1修改conf下的hbase-env.sh
export JAVA_HOME=/usr/java/jdk1.7.0_55
//告诉hbase使用外部的zk
export HBASE_MANAGES_ZK=false
3.2修改conf下的hbase-site.xml
<configuration>
<!-- 指定hbase在HDFS上存储的路径 -->
<property>
<name>hbase.rootdir</name>
<value>hdfs://ns1/hbase</value>
</property>
<!-- 指定hbase是分布式的 -->
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<!-- 指定zk的地址,多个用“,”分割 -->
<property>
<name>hbase.zookeeper.quorum</name>
<value>cluster01:2181,cluster02:2181,cluster03:2181</value>
</property>
</configuration>
3.3修改conf下的regionservers
<!-- hbase的小弟位置(和hadoop的slave相似)-->
cluster01
cluster02
cluster03
3.4将hadoop中conf中的core-site.xml和hdfs-site.xml拷贝到hbase的conf中 ,否则在启动hbase时,只有hmaster启动了,而hrgionServers没有启动,因为不知道ns1在哪台机器上
4.将配置好的HBase拷贝到每一个节点并同步时间。
scp -r /hadoop/hbase-1.2.4/ hadoop02:/hadoop/
scp -r /hadoop/hbase-1.2.4/ hadoop03:/hadoop/
scp -r /hadoop/hbase-1.2.4/ hadoop04:/hadoop/
scp -r /hadoop/hbase-1.2.4/ cluster01:/hadoop/
scp -r /hadoop/hbase-1.2.4/ cluster02:/hadoop/
scp -r /hadoop/hbase-1.2.4/ cluster03:/hadoop/
别忘了同步机器时间,否则会出现只有hmaster启动,而 HRegionServer启动后会自动关闭
http://www.cnblogs.com/canyangfeixue/p/4620781.html
5.启动所有的hbase
分别启动zk
./zkServer.sh start
启动hbase集群
start-dfs.sh
启动hbase,在主节点上运行:
start-hbase.sh
192.168.1.201:16010
./hbase-daemon.sh start master