1 下载地址
安装包下载地址:https://archive.apache.org/dist/hbase/
2 上传
上传下载好的安装包到一个节点上,解压放至任意一个目录下。
3 修改配置文件
注意:HA 要将 hadoop 的 hdfs-site.xml 和 core-site.xml 放到 hbase 的 conf 目录下。
然后修改Hbase的配置文件hbase-env.sh、hbase-site.xml、regionservers。
3.1 修改hbase-env.sh
3.2 修改hbase-site.xml
<configuration>
<property>
<name>hbase.rootdir</name>
<value>hdfs://hadoop/hbase</value>
</property>
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<property>
<name>hbase.zookeeper.property.clientPort</name>
<value>2181</value>
</property>
<property>
<name>hbase.zookeeper.quorum</name>
<value>master,masterbackup,slave1,slave2,slave3</value>
</property>
<property>
<name>hbase.zookeeper.property.dataDir</name>
<value>/home/hadoop/software/zookeeper/data</value>
</property>
<property>
<name>hbase.thrift.info.port</name>
<value>9095</value>
</property>
<property>
<name>hbase.regionserver.thrift.port</name>
<value>10000</value>
</property>
</configuration>
注意:hbase.rootdir 配置为 hdfs://hadoop/hbase( 注: hadoop 后面没有端口号 9000 ),而不是单机版的 hdfs://master:9000/hbase。
HA 中的 hadoop 来源于 hdfs-site.xml 中的配置:
<property>
<name>dfs.nameservices</name>
<value>hadoop</value>
</property>
所以需要把 hadoop 的 hdfs-site.xml 和 core-site.xml 放到 hbase 的 conf 目录下。
3.3 修改 regionservers
slave1
slave2
slave3
配置完成之后用 scp 命令将配置好的文件发送给其余主机即可。