各节点的角色分配
hostname | IP | Hadoop角色 | HBase角色 |
node0 | 172.17.225.61 | NN,JN,ZK,ZKFC,RM | Master |
node1 | 172.17.225.121 | NN,ZKFC,RM | Master |
node2 | 172.17.225.72 | DN,JN,ZK,MRJS | RegionServer |
node3 | 172.17.225.76 | DN,JN,ZK, | RegionServer |
1、安装Hbase
(1)下载hbase版本
下载地址:http://www.apache.org/dyn/closer.cgi/hbase/,在此路径下选择相应的版本下载,本次安装下载hbase-0.98.16.1-hadoop2-bin.tar.gz版本
(2)解压hbase-0.98.16.1-hadoop2-bin.tar.gz
hadoop@node0:~/opt$ tar -zxvf hbase-0.98.16.1-hadoop2-bin.tar.gz
(3)将hbase添加到环境变量中
export HBASE_HOME=/home/hadoop/opt/hbase-0.98.16.1-hadoop2
export PATH=$HBASE_HOME/bin:$PATH
(4)修改配置文件
修改hbase-env.sh
export JAVA_HOME=/home/hadoop/opt/jdk1.8.0_65
修改:export HBASE_MANAGES_ZK=false
export HBASE_MANAGES_ZK默认值是true,这里设置成false使用单独安装的zookeper(本环境中使用已经hadoop高可用的zookeper)
修改hbase-site.xml
<configuration> <property> <name>hbase.rootdir</name> <!-- ns1 是namenode HA配置的 dfs.nameservices名称--> <value>hdfs://ns1/hbase</value> </property> <property> <name>hbase.cluster.distributed</name> <value>true</value> </property> <property> <name>hbase.zookeeper.quorum</name> <value>node0,node2,node3</value> </property> <property> <name>zookeeper.session.timeout</name> <value>120000</value> </property> <property> <name>hbase.zookeeper.property.dataDir</name> <value>/home/hadoop/opt/zookeeper-3.4.6</value> </property> <property> <name>hbase.master.maxclockskew</name> <value>200000</value> <description>Time difference of regionserver from master</description> </property> </configuration>
修改regionservers,将文件内容设置为:
node2
node3
将node0服务器上的环境变量配置文件和hbase-0.98.16.1-hadoop2文件夹拷贝至node1,node2,node3服务器上。
3、运行HBase
启动hbase时要确保hdfs和zookeper已经启动运行命令如下:
hadoop@node0:~/opt/hbase-0.98.16.1-hadoop2$ start-hbase.sh