1、 安装 zookeeper 集群,此处略
2、 找到官网下载 hbase 安装包 hbase-1.2.6-bin.tar.gz
3、 上传安装包到服务器,并解压到对应的安装目录
4、 修改配置文件
1、修改运行环境配置环境
vi hbase-env.sh
修改两个两地方:
export JAVA_HOME=/usr/local/java/jdk1.8.0_73,表示修改为自己的 jdk 目录
export HBASE_MANAGES_ZK=false,表示不引用 hbase 自带的 zookeeper,用我们自己安装的保存退出
2、修改集群配置文件:hbase-site.xml
增加以下配置:
<configuration>
<property>
<!-- 指定 hbase 在 HDFS 上存储的路径 -->
<name>hbase.rootdir</name>
<value>hdfs://rashaun/hbase</value>
</property>
<property>
<!-- 指定 hbase 是分布式的 -->
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<property>
<!-- 指定 zk 的地址,多个用“,”分割 -->
<name>hbase.zookeeper.quorum</name>
<value>ali:2181,tencent:2181,huawei:2181</value>
</property>
</configuration>
保存退出
3、修改 regionservers
vi regionservers
ali
tencent
huawei
4、修改 backup-masters(自行创建),指定备用的主节点
该文件是不存在的,先自行创建:vi backup-masters
tencent
5、拷贝 hadoop 的核心配置文件过来
最重要一步,要把 hadoop 的 hdfs-site.xml 和 core-site.xml 放到 hbase-1.2.6/conf 下
cp ~/apps/hadoop-2.7.6/etc/hadoop/core-site.xml ~/apps/hbase-1.2.6/conf/
cp ~/apps/hadoop-2.7.6/etc/hadoop/hdfs-site.xml ~/apps/hbase-1.2.6/conf/
5、 分发安装到各节点
scp -r hbase-1.2.6 tencent:/home/hadoop/apps/
scp -r hbase-1.2.6 huawei:/home/hadoop/apps/
6、 同步时间
HBase 集群对于时间的同步要求的比 HDFS 严格,所以,集群启动之前千万记住要进行时间同步,要求相差不要超过 30s
7、 配置环境变量
vim /etc/profile
添加两行:
export HBASE_HOME=/home/hadoop/apps/hbase-1.2.6
export PATH=$PATH:$HBASE_HOME/bin
保存退出,执行 source /etc/profile使配置生效
8、 启动(顺序别搞错了)
1、 先启动 zookeeper 集群
zkServer.sh start
2、 启动 hdfs 集群
start-dfs.sh
3、 启动 hbase
保证 ZooKeeper 集群和 HDFS 集群启动正常的情况下启动 HBase 集群
启动命令:start-hbase.sh
观看启动日志可以看到:
1、首先在命令执行节点启动 master
2、然后分别在ali,tencent,huawei启动 regionserver
3、然后在 backup-masters 文件中配置的备节点上再启动了一个 master 主进程
9、 查看启动是否正常,是否成功
1、 检查各进程是否启动正常
主节点和备用节点都启动 hmaster 进程
各从节点都启动 hregionserver 进程
按照对应的配置信息各个节点应 该要启动的进程如上图所示
2、 通过访问浏览器页面,格式为”主节点:16010”
http://ali:16010/
10、如果有节点相应的进程没有启动,那么可以手动启动
hbase-daemon.sh start master
hbase-daemon.sh start regionserver