开启三台虚拟机 master slave1 slave2
上传hbase安装包到/opt/software
没有的就创建 mkdir /opt/software
解压Hbase包到src下
tar -zxvf hbase-1.2.1-bin.tar.gz -C /usr/local/src
修改包名
cd /usr/local/src
mv hbase-1.2.1 hbase
修改环境变量
# set hbase environment
export HBASE_HOME=/usr/local/src/hbase # hbase 安装目录
export PATH=$PATH:$HBASE_HOME/bin # 将 hbase 的 bin 目录添加到系统环境变量
生效环境变量
三台虚拟机修改 hbase-env.sh文件
export JAVA_HOME=/usr/local/src/java
export HADOOP_HOME=/usr/local/src/hadoop
export HADOOP_CONF_DIR=${HADOOP_HOME}/etc/hadoop
export HBASE_MANAGES_ZK=false
export HBASE_LOG_DIR=${HBASE_HOME}/logs
export HBASE_PID_DIR=${HBASE_HOME}/pid
slave1和slave2同上
修改hbase-site.xml
<property>
<name>hbase.rootdir</name>
<value>hdfs://master:8020/hbase</value>
</property>
<property>
<name>hbase.master.info.port</name>
<value>16010</value>
</property>
<property>
<name>hbase.zookeeper.property.clientPort</name>
<value>2181</value>
</property>
<property>
<name>hbase.tmp.dir</name>
<value>/usr/local/src/hbase/tmp</value>
</property>
<property>
<name>zookeeper.session.timeout</name>
<value>120000</value>
</property>
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<property>
<name>hbase.zookeeper.quorum</name>
<value>master,slave1,slave2</value>
</property>
<property>
<name>hbase.zookeeper.property.dataDir</name>
<value>/usr/local/src/hbase/tmp/zookeeper-hbase</value>
</property>
hbase.rootdir:指定 HBase 的存储目录。
hbase.master.info.port:浏览器的访问端口
hbase.zookeeper.property.clientPort: 指定 zk 的连接端口。
hbase.tmp.dir:指定 hbase 在本地下生成文件路径,类似于 hadoop.tmp.dir。
zookeeper.session.timeout:RegionServer 与 Zookeeper 间的连接超时时间
hbase.cluster.distributed:HBase 是否为分布式模式。
hbase.zookeeper.quorum:默认值是 localhost,列出 zookeepr ensemble 中的servers。
hbase.zookeeper.property.dataDir:这里表示HBase在ZooKeeper上存储数据的位置。
修改regionservers
vi regionservers
为了让 Hbase 读取到 hadoop 的配置,将 core-site.xml 和 hdfs-site.xml 两个文件拷贝到 $HBASE_HOME/conf/ 目录下
cp /usr/local/src/hadoop/etc/hadoop/core-site.xml /usr/local/src/hbase/conf/
cp /usr/local/src/hadoop/etc/hadoop/hdfs-site.xml /usr/local/src/hbase/conf/
三台虚拟机登录hadoop
分发hbase给slave1和2
scp -r /usr/local/src/hbase hadoop@slave1:/usr/local/src
scp -r /usr/local/src/hbase hadoop@slave2:/usr/local/src
HBase 集群启动 用master依次开启节点
zookeeper启动 hdfs启动
在master开启hbase节点
在web上查看集群 端口号16010