Hbase2.4.0安装
说明:安装zookeeper、hadoop集群
解压:
tar -zxvf hbase-2.4.0-bin.tar.gz -C /usr/local
改名
cd /usr/local
mv hbase-2.4.0 hbase
更改所有者
sudo chown -R hadoop:hadoop hbase
查看版本
cd /usr/local/hbase/bin
./hbase version
修改profile
vim /etc/profile
export HBASE_HOME=/usr/local/hbase
export PATH=$HBASE_HOME/bin:$PATH
source /etc/profile
修改hbase-env.sh
cd /usr/local/hbase/conf/
vim hbase-env.sh
export JAVA_HOME=/usr/lib/jvm/jdk1.8.0_271
export HADOOP_HOME=/usr/local/hdoop
export HBASE_HOME=/usr/local/hbase
# 指定HBase是否使用HBase本身自带的Zookeeper
export HBASE_MANAGES_ZK=false
export HBASE_CLASSPATH=/usr/local/hbase/conf
export PATH=$JAVA_HOME/bin:$HADOOP_HOME/bin:$HBASE_HOME/bin:$PATH
修改hbase-site.xml
cd /usr/local/hbase/conf/
vim hbase-site.xml
<configuration>
<!-- 是否分布式部署 -->
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<!-- 指定hbase存放数据的HDFS目录,如果是分布式部署,要和Hadoop的core-site.xml中的fs.defaultFS一致-->
<property>
<name>hbase.rootdir</name>
<value>hdfs://cancer/hbase</value>
<!—单机模式配置如下
<value>file:///usr/local/hbase/hbase-tmp</value>-->
</property>
<!-- 配置Zookeeper节点-->
<property>
<name>hbase.zookeeper.quorum</name>
<value>cancer01,cancer02,cancer03,cancer04,cancer05</value>
</property>
<!-- Hbase在zk上注册的数据信息,默认是/tmp,如果不修改,当系统重启的时候会删除/tmp目录 -->
<property>
<name>hbase.zookeeper.property.dataDir</name>
<value>/usr/local/hbase/zkdata</value>
</property>
<!-- 设置zk集群端口,默认是2181,一定要和你的zk集群端口保持一致-->
<property>
<name>hbase.zookeeper.property.clientPort</name>
<value>2181</value>
</property>
<property>
<name>hbase.tmp.dir</name>
<value>/usr/local/hbase/tmp</value>
</property>
<property>
<name>hbase.unsafe.stream.capability.enforce</name>
<value>false</value>
</property>
<!-- HMaster
<property>
<name>hbase.master</name>
<value>hdfs://cancer01</value>
</property>
<property>
<name>hbase.wal.provider</name>
<value>filesystem</value>
</property>-->
</configuration>
修改reginservers
cd /usr/local/hbase/conf/
vim reginservers
#cancer01作为hbase的主节点,部署HMaster,cancer02 03 04 05作为hbase从节点,部署HRegionServer
#此处在cancer01上部署HRegionServer,否则不需要cancer01
cancer01
cancer02
cancer03
cancer04
cancer05
拷贝core-site.xml和hdfs-site.xml
为了让Hbase读取到hadoop的配置将两个文件拷贝到 $HBASE_HOME/conf/ 目录下
cp $HADOOP_HOME/etc/hadoop/core-site.xml $HBASE_HOME/conf/
cp $HADOOP_HOME/etc/hadoop/hdfs-site.xml $HBASE_HOME/conf/
配置lib
cd /usr/local/hbase/
cp lib/client-facing-thirdparty/htrace-core-3.1.0-incubating.jar lib/
复制其他节点
scp -r /usr/local/hbase hadoop@cancer02:/usr/local/
scp -r /usr/local/hbase hadoop@cancer03:/usr/local/
scp -r /usr/local/hbase hadoop@cancer04:/usr/local/
scp -r /usr/local/hbase hadoop@cancer05:/usr/local/
启动zookeeper
zkServer.sh start
启动hadoop
cd /usr/local/Hadoop/sbin