1. 预置环境
- VMware创建三台虚拟机,均为Ubuntu16.04,内存为4G,硬盘100G
- 已搭建Hadoop集群,可参考之前的博客Spark学习—— (2) 从零开始搭建Spark(StandAlone与YARN模式)与Hadoop集群
- 已搭建zookeeper集群,可参考之前的博客Spark实战—— (1) zookeeper简介与环境搭建
- 三台虚拟机的ip已在host里绑定为master、slave1、slave2
- 三台虚拟机已实现ssh免密登陆
- 三台虚拟机已安装jdk1.8
2. 安装HBase
- 在官网下载
hbase-1.4.9-bin.tar.gz
,使用tar
指令解压
Node@master ~/Downloads> tar -xf hbase-1.4.9-bin.tar.gz
- 移动到
/opt
目录下,并建立软连接
Node@master ~/Downloads> mv hbase-1.4.9 /opt
Node@master ~/Downloads> cd /opt
Node@master /opt> ln -snf hbase-1.4.9/ hbase
- 配置环境变量,即修改
/etc/profile
#hbase env
export HBASE_HOME=/opt/hbase
export PATH=$PATH:$HBASE_HOME/bin
3. 配置HBase
- 修改HBase的配置文件(
hbase/conf/hbase-env.sh
),如下:
export JAVA_HOME=/opt/jdk #jdk位置
export HBASE_CLASSPATH=/opt/hadoop/etc/hadoop #hadoop的位置
export HBASE_MANAGES_ZK=false #不使用自带的zookeeper
- 修改
hbase-site.xml
,如下:
<configuration