解压 命名
tar -zxvf /opt/hbase-1.2.1-bin.tar.gz -C /opt/
mv hbase-1.2.1 hbase
2.添加环境变量
export HBASE_HOME=/opt/hbase
export PATH=$HBASE_HOME/bin:$PATH
#格式化生效
source /etc/profile
3.在 master 节点进入配置文件目录
cd /opt/hbase/conf/
4..配置hbase-env.sh文件
#Java安装位置
export JAVA_HOME=/opt/java
#值为true使用HBase自带的ZooKeeper,值为false使用在Hadoop上装的ZooKeeper
export HBASE_MANAGES_ZK=false
#HBase类路径,flume运行出错要注释掉
export HBASE_CLASSPATH=/opt/hadoop/etc/hadoop/
5.在 master 节点配置 hbase-site.xml
vi /opt/hbase/conf/hbase-site.xml
<configuration>
<property>
<name>hbase.rootdir</name>
<value>hdfs://master:9000/hbase</value># 使用9000端口
<description>The directory shared by region servers.</description>
</property>
<property>
<name>hbase.master.info.port</name>
<value>60010</value># 使用master节点60010端口
</property>
<property>
<name>hbase.zookeeper.property.clientPort</name>
<value>2181</value># 使用master节点2181端口
<description>Property from ZooKeeper's config zoo.cfg. The port at which the clients will connect.
</description>
</property>
<property>
<name>zookeeper.session.timeout</name>
<value>120000</value># ZooKeeper超时时间
</property>
<property>
<name>hbase.zookeeper.quorum</name>
<value>master,slave1,slave2</value># ZooKeeper管理节点
</property>
<property>
<name>hbase.tmp.dir</name>
<value>/opt/hbase/tmp</value># HBase临时文件路径
</property>
<property>
<name>hbase.cluster.distributed</name>
<value>true</value># 使用分布式HBase
</property>
</configuration>
6.在 master 节点修改 regionservers 文件
[root@master conf]$ vi regionservers
#删除localhost,每一行写一个slave节点主机机器名
slave1
slave2
hdfs dfs -chown -R root:root /user/
7.创建目录
[root@master usr]# mkdir /opt/hbase/tmp
8.将 master 上的 hbase 安装文件同步到 slave1 slave2
scp -r /opt/hbase root@slave1:/opt/
scp -r /opt/hbase root@slave2:/opt/
scp -r /etc/profile root@slave2:/etc/
scp -r /etc/profile root@slave1:/etc/
souce /etc/profile
souce /etc/profile
souce /etc/profile
启动 HBase
先启动 Hadoop,然后启动 ZooKeeper,最后启动 HBase。
首先在 master 节点启动 Hadoop。
[hadoop@master ~]$ start-all.sh
[hadoop@master ~]$ jps
master 节点
[hadoop@master ~]$ jps
10288 ResourceManager
9939 NameNode
10547 Jps
10136 SecondaryNameNode
slave1 节点
[hadoop@slave1 ~]$ jps
4465 NodeManager
4356 DataNode
4584 Jps
slave2 节点
[hadoop@slave2 ~]$ jps
3714 DataNode
3942 Jps
3823 eManager
在所有节点启动 ZooKeeper
[hadoop@master ~]$ zkServer.sh start
[hadoop@master ~]$ jps
master 节点
10288 ResourceManager
9939 NameNode
10599 Jps
10136 SecondaryNameNode
10571 QuorumPeerMain
slave1 节点
[hadoop@slave1 ~]$ zkServer.sh start
[hadoop@slave1 ~]$ jps
1473 QuorumPeerMain
1302 NodeManager
1226 DataNode
1499 Jps
slave2 节点
[hadoop@slave2 ~]$ zkServer.sh start
[hadoop@slave2 ~]$ jps
1296 NodeManager
1493 Jps
1222 DataNode
1469 QuorumPeerMain
在 master 节点启动 HBase
[hadoop@master ~]$ start-hbase.sh
[hadoop@master ~]$ jps
master 节点
1669 ResourceManager
2327 Jps
1322 NameNode
2107 HMaster
1948 QuorumPeerMain
1517 SecondaryNameNode
slave1 节点
[hadoop@slave1 ~]$ jps
1473 QuorumPeerMain
1557 HRegionServer
1702 Jps
1302 NodeManager
1226 DataNode
slave2 节点
[hadoop@slave2 ~]$ jps
1296 NodeManager
1222 DataNode
1545 HRegionServer
1725 Jps
1469 QuorumPeerMain
:在浏览器输入 master:60010 出现如下图 7-2 所示的界面。
1.4.2.22. 步骤二十二:退出
hbase(main):024:0> quit
关闭 HBase 在 master 节点关闭 HBase。
[hadoop@master ~]$ stop-hbase.sh
在所有节点关闭 ZooKeeper。
[hadoop@master ~]$ zkServer.sh stop
[hadoop@slave1 ~]$ zkServer.sh stop
[hadoop@slave2 ~]$ zkServer.sh stop
在 master 节点关闭 Hadoop。
[hadoop@master ~]$ stop-all.sh
注意:各节点之间时间必须同步,否则 HBase 启动不了。
在每个节点执行 date 命令,查看每个节点的时间是否同步,不同步的话,在各节点执
行 date 命令,date -s "2016-04-15 12:00:00"