设计集群结构,主节点(hmaster)是hadoop0,从节点(region server)是hadoop1,hadoop2和hadoop3
1.先在主节点hadoop0上配置好Hbase环境
1.1 解压缩、重命名、设置环境变量
tar -zxvf hbase-0.94.7-security.tar.gz
mv hbase-0.94.7-security hbase
vi /etc/profile
增加如下内容:
export HBASE_HOME=/usr/local/hbase
export PATH=.:$HBASE_HOME/bin:$PATH
使设置生效,执行命令:
source /etc/profile
1.2 修改$HBASE_HOME/conf/hbase-env.sh,修改内容如下:
export JAVA_HOME=/usr/local/jdk
export HBASE_MANAGES_ZK=false
1.2 修改$HBASE_HOME/conf/hbase-site.xml,修改内容如下:
<property>
<name>hbase.rootdir</name>
<value>hdfs://hadoop0:9000/hbase</value>
</property>
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<property>
<name>hbase.zookeeper.quorum</name>
<value>hadoop0,hadoop1,hadoop2,hadoop3</value>
</property>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
1.3 修改$HBASE_HOME/conf/regionservers的内容为
hadoop1
hadoop2
hadoop3
2 复制hadoop0中的hbase文件夹到hadoop1、hadoop2、hadoop3中
scp -rq /usr/local/hbase hadoop1:/usr/local/
scp -rq /usr/local/hbase hadoop2:/usr/local/
scp -rq /usr/local/hbase hadoop3:/usr/local/
复制hadoop0中的/etc/profile到hadoop1、hadoop2、hadoop3中
scp /etc/profile hadoop1:/etc/
scp /etc/profile hadoop1:/etc/
scp /etc/profile hadoop3:/etc/
在hadoop1、hadoop2、hadoop3上执行source /etc/profile
3 首先启动hadoop,然后启动zookeeper集群,最后在hadoop0上启动hbase集群
3.1 在主节点hadoop0上启动hadoop集群 ,执行命令:start-all.sh
3.2 在各节点上启动zookeeper集群 ,执行命令:zkServer.sh start
3.3 在主节点hadoop0上启动hbase集群 ,执行命令:start-hbase.sh
4 验证:(1)执行jps,发现新增加了3个java进程,分别是HMaster、HRegionServer、HQuorumPeer
(2)使用浏览器访问http://hadoop0:60010