1、上传并解压Hbase安装包
将 hbase-1.3.1-bin.tar.gz上传到服务器haddop1服务器的export/yasuo/目录下。将其解压到目录 /export/ssevice,解压命令如下
tar -zxvf hbase-1.3.1-bin.tar.gz -C /export/service/
2、修改文件名
3、修改配置文件,加入环境变量
保存退出
生效配置文件
4、hbase-env.sh文件配置
修改hbase安装目录下的con/hbase-env.sh,配置hbase关联的JDK,加入以下代码:
注释以下两句
把以下下面的false改为true
5、hbase-site.xml文件配置
复制以下文件
hbase.rootdir hdfs://hadoop1:9000/HBase hbase.cluster.distributed true hbase.master.port 16000 hbase.zookeeper.quorum hadoop1,hadoop2,hadoop3 hbase.zookeeper.property.dataDir /export/servers/zookeeper-3.4.9/zkData保存退出
上述配置解析:
hbase.rootdir:Hbase的数据存储目录,由于HBASE存储在HDFS上,所以要写HDFS的目录,注意地址hdfs://Hadoop1:9000应与HADOOP的fs.defaultFS 一致。
hbase.cluster.distributed:设置为true代表开启分布式。
hbase.zookeeper.quorum:设置依赖的zookeeper节点,此处加入所有zookeeper集群即可。
hbase.zookeeper.property.dataDir:设置zookeeper的配置、日志等数据存放目录。
6、regionservers文件配置
regionservers文件列出了所有运行HRegionServer进程服务器,对该文件的配置与Hadoop中对slaves或者workers文件的配置相似,需要在文件的每一行指定一台服务器,当HBASE启动时会读取该文件,将文件指定的所有服务器启动HRegionServer进程,当HBASE停止的时候,也会同时停止他们。
7、在hbase/conf/文件下导入hdfs-site.xml和文件core-site.xml,实现软连接
ln -s /export/service/hadoop-3.1.3/etc/hadoop/etc/hadoop/hdfs-site.xml /export/service/hbase/conf/hdfs-site.xml
ln -s /export/service/hadoop-3.1.3/etc/hadoop/etc/hadoop/core-site.xml /export/service/hbase/conf/core-site.xml
8、同步到其他三台虚拟机上
9、启动与测试
启动hdfs
启动hbase
查看是否启动成功
启动成功需要hadoop1上面有节点Hmaster ,HQuorumPeer,和HRegionServer进程,
hadoop2和hadoop3节点上出现了HQuorumPeer和HRegionServer进程
所以的启动的Hadoop1缺少进程Hmaster进程
解决上述问题
进到zookeeper
里面删除hbase
再次启动HBASE