前言
本文隶属于专栏《1000个问题搞定大数据技术体系》,该专栏为笔者原创,引用请注明来源,不足和错误之处请在评论区帮忙指出,谢谢!
本专栏目录结构和参考文献请见1000个问题搞定大数据技术体系
正文
建议按照我的这篇博客完成三节点大数据环境
的安装配置。
三节点大数据环境安装详细教程
安装部署
- 下载安装包
https://hbase.apache.org/downloads.html - 规划安装目录
cd /opt/bigdata
- 上传安装包到服务器
- 解压安装包到指定的规划目录
tar -zxvf hbase-xxx-bin.tar.gz -C /opt/bigdata
- 重命名解压目录
mv hbase-xxx hbase
- 修改配置文件
-
需要把hadoop中的配置core-site.xml 、hdfs-site.xml拷贝到hbase安装目录下的conf文件夹中
-
修改conf目录下配置文件
- 修改 hbase-env.sh
#添加java环境变量
export JAVA_HOME=/opt/bigdata/jdk
#指定使用外部的zk集群
export HBASE_MANAGES_ZK=FALSE
- 修改 hbase-site.xml
<configuration>
<!-- 指定hbase在HDFS上存储的路径 -->
<property>
<name>hbase.rootdir</name>
<value>hdfs://node1:9000/hbase</value>
</property>
<!-- 指定hbase是分布式的 -->
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<!-- 指定zk的地址,多个用“,”分割 -->
<property>
<name>hbase.zookeeper.quorum</name>
<value>node1:2181,node2:2181,node3:2181</value>
</property>
</configuration>
- 修改regionservers
#指定regionserver节点
node2
node3
- 修改backup-masters
node2
- 配置hbase的环境变量
export HBASE_HOME=/opt/bigdata/hbase
export PATH=$PATH:$HBASE_HOME/bin
- 分发hbase目录和环境变量到其他节点
scp -r hbase node2:/opt/bigdata
scp -r hbase node3:/opt/bigdata
scp /etc/profile node2:/etc
scp /etc/profile nod3:/etc
- 让所有节点的hbase环境变量生效
#在所有节点执行
source /etc/profile
hbase集群的启动和停止
启动
- 前提条件:先启动hadoop和zk集群
- 启动hbase
- start-hbase.sh
停止
- 停止hbase
- stop-hbase.sh