一:在安装之前我们要保证zookeeper和hadoop已经安装完毕,然后我们开始启动zookeeper和hadoop集群,启动zk集群的命令是在zk的安装目录下执行bin/zkServer.sh start,然后在hadoop中执行sbin/start-dfs.sh和sbin/start-yarn.sh
二:hbase的安装部署
1.在hadoop102这台机器上执行
tar -zxvf hbase-1.3.1-bin.tar.gz -C /opt/module
将我们的tar包解压到/opt/module目录下。
[root@hadoop102 software]# tar -zxvf hbase-1.3.1-bin.tar.gz -C /opt/module
2.进入/opt/module目录下将hbase-1.3.1改名为hbase
[root@hadoop102 module]# mv hbase-1.3.1/ hbase
3.我们进入到hbase里面的conf这个目录,这时我们需要修改一下这个目录中的如下三个文件
1)hbase-env.sh文件中按照下图所示更改
2)在hbase-site.xml文件中添加如下内容,注意如下内容中 hbase.rootdir对应的值为你hadoop的主节点,hbase.zookeeper.quorum 值中填入你自己集群中各个主机名, hbase.zookeeper.property.dataDir 为你zk存储数据的实际目录。
<property>
<name>hbase.rootdir</name>
<value>hdfs://hadoop102:9000/HBase</value>
</property>
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<!-- 0.98后的新变动,之前版本没有.port,默认端口为60000 -->
<property>
<name>hbase.master.port</name>
<value>16000</value>
</property>
<property>
<name>hbase.zookeeper.quorum</name>
<value>hadoop102,hadoop103,hadoop104</value>
</property>
<property>
<name>hbase.zookeeper.property.dataDir</name>
<value>/opt/module/zookeeper-3.4.10/zkData</value>
</property>
- 对于regionservers这个文件我们只需要在里面添加集群的每个主机名就可以了,这个文件里面有一行内容为localhost,我们可以先把它删除掉,然后加入以下内容,这里的hadoop102,103,104分别是我的主机名,根据自己的主机名来配置。
hadoop102
hadoop103
hadoop104
4.软连接 hadoop 配置文件到 HBase
在hadoop102上执行如下内容
ln -s /opt/module/hadoop-2.7.2/etc/hadoop/core-site.xml /opt/module/hbase/conf/core-site.xml
ln -s /opt/module/hadoop-2.7.2/etc/hadoop/hdfs-site.xml /opt/module/hbase/conf/hdfs-site.xml
5.拷贝hbase到其他hadoop103,104机器上,注意执行下面的步骤一定要在/opt/module/hbase下执行,此过程大概会持续90秒。
scp -r /opt/module/hbase root@hadoop103:/opt/module/
scp -r /opt/module/hbase root@hadoop104:/opt/module/
6.将以上内容处理完以后我们就可以启动hbase服务了(这里要注意需提前启动好hadoop和zk集群),在hadoop102上面的/opt/module/hbase下执行bin/start-hbase.sh ,注意我们只需要在一台机器上启动就可以了,不需要在另外两台机器上也执行bin/start-hbase.sh
执行完以后我们在haddoop102,103,104上面分别查看一下关于hbase的进程发现hbase已经成功启动。
关于hbase的关闭我们直接在其中的一台机器上执行bin/stop-hbase.sh就可以了.
关于访问habse的web页面直接可以用IP地址:16010来访问。