在Hadoop集群基础之上安装HBase集群。
1. 集群规划
1.1 主机规划
| Master | Slave1 | Slave2 |
Namenode | 是 | 是 |
|
Datanode | 是 | 是 | 是 |
HMaster | 是 | 是 |
|
HRegionServer | 是 | 是 | 是 |
Zookeeper | 是 | 是 | 是 |
1.2 软件规划
软件 | 版本 | 位数 |
Jdk | 1.8 | 64 |
Centos | 6.5 | 64 |
Zookeeper | zookeeper-3.4.5-cdh5.13.0.tar.gz |
|
HBase | hbase-1.2.0-cdh5.13.0.tar.gz |
|
1.3 用户规划
节点名称 | 用户组 | 用户 |
Master | Cdh | Cdh |
Slave1 | Cdh | Cdh |
Slave2 | Cdh | Cdh |
1.4 目录规划
名称 | 路径 |
所有软件目录 | /home/cdh/app |
脚本目录 | /home/cdh/tools |
日志目录 | /home/cdh/data/hbase/logs |
Pids目录 | /home/cdh/data/hbase/pids |
2. Hbase安装
1.1 下载hbase-1.2.0-cdh5.13.0.tar.gz,上传至master节点的/home/cdh/app目录下
1.2 解压:tar -zxvf hbase-1.2.0-cdh5.13.0.tar.gz
1.3 创建软链接:ln -s hbase-1.2.0-cdh5.13.0 hbase
1.4 修改hbase配置文件:hbase-env.sh、hbase-site.xml、regionservers(详情见本地文件)
1.5 将hdfs文件拷贝到master节点的/home/cdh/app/hbase-1.2.0-cdh5.13.0/conf目录下
cp core-site.xml /home/cdh/app/hbase-1.2.0-cdh5.13.0/conf/
cp hdfs-site.xml /home/cdh/app/hbase-1.2.0-cdh5.13.0/conf/
1.6 将master节点下的hbase安装目录分发到slave1和slave2节点
deploy.sh hbase-1.2.0-cdh5.13.0 /home/cdh/app/ slave
然后分别创建软链接
ln -s hbase-1.2.0-cdh5.13.0 hbase
1.7 创建相关目录
runRemoteCmd.sh "mkdir -p/home/cdh/data/hbase/logs" all
1.8 各个节点配置hbase环境变量
vi~/.bashrc
JAVA_HOME=/home/cdh/app/jdk
ZOOKEEPER_HOME=/home/cdh/app/zookeeper
HADOOP_HOME=/home/cdh/app/hadoop
HBASE_HOME=/home/cdh/app/hbase
CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
PATH=$JAVA_HOME/bin:/home/cdh/tools:$ZOOKEEPER_HOME/bin:$HBASE_HOME/bin:$HADOOP_HOME/bin:$PATH
export JAVA_HOME CLASSPATH PATHZOOKEEPER_HOME HADOOP_HOME HBASE_HOME
保存并使之生效
source ~/.bashrc
1.9 启动hbase
1.9.1.1 启动Zookeeper:
runRemoteCmd.sh"/home/cdh/app/zookeeper/bin/zkServer.sh start" all
1.9.1.2 启动hdfs:
sbin/start-dfs.sh
1.9.1.3 启动hbase:bin/start-hbase.sh
1.9.1.4 Web 界面查看hbase:http://master:60010
如需完整的安装包+配置文件,可以加QQ群:695520445