-
1、下载安装包
- http://archive.apache.org/dist/hbase
-
2、规划安装目录
- /opt/hbase
-
3、上传安装包到服务器
-
4、解压安装包到指定的规划目录
- tar -zxvf hbase-2.0.0-bin.tar.gz -C /opt/bigdata
-
5、重命名解压目录
- mv hbase-2.0.0 hbase
-
6、修改配置文件
-
1、需要把hadoop中的配置core-site.xml 、hdfs-site.xml拷贝到hbase安装目录下的conf文件夹中
-
2、修改conf目录下配置文件
- 修改 hbase-env.sh
#添加java环境变量 export JAVA_HOME=/opt/java/jdk #指定使用外部的zk集群 export HBASE_MANAGES_ZK=FALSE
- 修改 hbase-site.xml
<configuration> <!-- 指定hbase在HDFS上存储的路径 --> <property> <name>hbase.rootdir</name> <value>hdfs://node1:9000/hbase</value> </property> <!-- 指定hbase是分布式的 --> <property> <name>hbase.cluster.distributed</name> <value>true</value> </property> <!-- 指定zk的地址,多个用“,”分割 --> <property> <name>hbase.zookeeper.quorum</name> <value>node1:2181,node2:2181,node3:2181</value> </property> </configuration>
- 修改regionservers
#指定regionserver节点 node2 node3
- 修改backup-masters
node2
-
-
7、配置hbase的环境变量
export HBASE_HOME=/opt/hbase export PATH=$PATH:$HBASE_HOME/bin
-
8、分发hbase目录和环境变量到其他节点
scp -r hbase node2:/opt/hbase scp -r hbase node3:/opt/hbase scp /etc/profile node2:/etc scp /etc/profile nod3:/etc
-
9、让所有节点的hbase环境变量生效
- 在所有节点执行
- source /etc/profile
- 在所有节点执行
5、hbase集群的启动和停止
5.1 启动
- 前提条件:先启动hadoop和zk集群
- 启动hbase
- start-hbase.sh
5.2 停止
- 停止hbase
- stop-hbase.sh