本地模式:
在指定的机器上,例如我的机器是qianfeng01、qianfeng02、qianfeng03
1.上传、解压到指定路径
[root@qianfeng01 local]# tar -zxvf hbase-1.2.1-bin.tar.gz -C /usr/local
2. 更名
[root@qianfeng01 local]# mv hbase-1.2.1 hbase
3.修改环境变量
vi /etc/profile
如下:
#hbase environment
export HBASE_HOME=/usr/local/hbase
export PATH=$HBASE_HOME/bin:$PATH
4.生效
sourch /etc/profile
6.修改配置文件
vi $HBASE_HOME/conf/hbase-env.sh
如下:
# The java implementation to use. Java 1.7+ required.
export JAVA_HOME=/usr/local/jdk1.8
[root@qianfeng01 conf]# vi hbase-site.xml
<configuration>
<!-- 属性hbase.rootdir用于指定hbase产生的数据的存储位置 -->
<property>
<name>hbase.rootdir</name>
<value>file:///usr/local/hbase/data</value>
</property>
<!-- hbase依赖于zookeeper,需要指定内置zookeeper的数据存储位置 -->
<property>
<name>hbase.zookeeper.property.dataDir</name>
<value>/usr/local/hbase/zkdata</value>
</property>
</configuration>
6. [root@qianfeng01 conf]# start-hbase.sh
显示如下:
[root@qianfeng01 conf]# jps
2307 DataNode
42643 HMaster
2101 NameNode
94313 Jps
完全分布式:
在本地模式的基础上进行搭建
1.配置备用的hmaster的位置,文件名是固定的,必须叫backup-masters
[root@qianfeng01 ~]# echo "qianfeng02" > $HBASE_HOME/conf/backup-masters
2.拷贝hdfs的core-site.xml和hdfs-site.xml到hbase的conf目录下(重点)
[root@qianfeng01 hadoop]# cp /usr/local/hadoop2.7/etc/hadoop/{core-site.xml,hdfs-site.xml} $HBASE_HOME/conf/
3.利用scp命令远程拷贝
[root@qianfeng01 local]# scp -r /usr/local/hbase qianfeng02:/usr/local
[root@qianfeng01 local]# scp -r /usr/local/hbase qianfeng03:/usr/local
[root@qianfeng01 local]# scp /etc/profile qianfeng02:/etc/
[root@qianfeng01 local]# scp /etc/profile qianfeng03:/etc/
注意:
重新引导一下各个节点的环境变量配置情况