1)解压hbase-1.3.1-bin.tar.gz 到/opt/modules目录下
tar -zxvf hbase-1.3.1-bin.tar.gz
2)配置hbase集群需要修改3个文件。
- 2.1)修改hbase-env.sh 配置环境变量
export JAVA_HOME=/usr/java/jdk1.7.0_55
export HBASE_CLASSPATH=/itcast/hadoop/conf
export HBASE_MANAGES_ZK=false // 告诉hbase使用外部的zk
//注意:如果hadoop与hbse不在同一台机器上,应该将hadoop的hdfs-site.xml放到HBASE_CLASSPATH
//所指向的目录下,如果在同一台机器上,HBASE_CLASSPATH变量可以直接指向hadoop配置文件目录即可。
- 2.2)修改hbase-site.xml配置文件
<configuration>
<!-- 指定hbase在HDFS上存储的路径 -->
<property>
<name>hbase.rootdir</name>
<value>hdfs://appcluster/hbase</value>
</property>
<!-- 指定hbase是分布式的 -->
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<!-- 指定zookeeper的地址,多个用“,”分割 -->
<property>
<name>hbase.zookeeper.quorum</name>
<value>node9:2181,node10:2181,node11:2181</value>
</property>
<!-- WEB 端口,1.0以后的版本需要手动配置
链接:http://ask.csdn.net/questions/177926
http://blog.csdn.net/dhtx_wzgl/article/details/46821673-->
<property>
<name>hbase.master.info.port</name>
<value>60010</value>
</property>
</configuration>
- 2.2) 修改regionservers文件,配置hregionserver从节点地址,与hadoop中的slaves类似的功能
node10
node11
3)将hbase拷贝到其他节点上去
scp -r hbase-1.3.1 node10:/opt/modules/hbase-1.3.1
4)启动所有的hbase
4.1 首先启动zookeeper
4.2 启动hadoop集群
4.3 启动hbase,在hbase hmaster节点上执行start-hbase.sh 命令
5)通过浏览器访问hbase管理页面
192.168.246.189:60010
6)为保证集群的可靠性,要启动多个HMaster
hbase-daemon.sh start master