搭建hbase集群首先得有Hadoop的完全分布式集群和zookeepe集群
启动hadoop集群,启动zookeeper集群
上传hbase到Linux
scp -r D:\桌面\hadoop笔记\资料\04_jar包\hbase-2.4.10-bin.tar.gz root@hadoop100:/export/servers/
通过tar -zxvf 解压到当前文件夹
tar -zxvf ./hbase-2.4.10-bin.tar.gz -C ./
通过mv命令修改文件名
mv hbase-2.4.10 hbase
配置hbase的环境变量
cd /etc/profile.d
vim my_env.sh
#编辑内容如下
#HBASE_HOME
export HBASE_HOME=/export/servers/hbase
export PATH=$PATH:$HBASE_HOME/bin
进入hbase目录下修改regionservers文件
vim regionservers
#编辑内容如下
hadoop102
hadoop103
hadoop104
修改hbase-env.sh
vim hbase-env.sh
#编辑内容如下
export JAVA_HOME=/export/servers/jdk
export HBASE_MANAGES_ZK=false
# export HBASE_MASTER_OPTS="$HBASE_MASTER_OPTS -XX:PermSize=128m -XX:MaxPermSize=128m"
# export HBASE_REGIONSERVER_OPTS="$HBASE_REGIONSERVER_OPTS -XX:PermSize=128m -XX:MaxPermSize=128m"
#注释下面这两句
修改hbase-site.xml文件
vim hbase-site.xml
#编辑内容如下
<configuration>
<property>
<name>hbase.rootdir</name>
<value>hdfs://node01:8020/hbase</value>
</property>
<property >
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<property>
<name>hbase.master.port</name>
<value>16000</value>
</property>
<property>
<name>hbase.zookeeper.quorum</name>
<value>node01,node02,node03</value>
</property>
<property>
<name>hbase.zookeeper.property.dataDir</name>
<value>/export/data/zookeeper/zkdata</value>
</property>
</configuration>
修改hadoop中的core-site.xml
<configuration>
<!-- 指定NameNode的地址 -->
<property>
<name>fs.defaultFS</name>
<value>hdfs://node01:8020</value>
</property>
<!-- 指定hadoop数据的存储目录 -->
<property>
<name>hadoop.tmp.dir</name>
<value>/export/servers/hadoop-3.1.3/data</value>
</property>
<!-- 配置HDFS网页登录使用的静态用户为root -->
<property>
<name>hadoop.http.staticuser.user</name>
<value>root</value>
</property>
<property>
<name>hadoop.proxyuser.root.hosts</name>
<value>*</value>
</property>
<property>
<name>hadoop.proxyuser.root.groups</name>
<value>*</value>
</property>
<!-- 指定hbase的数据文件存储在HDFS上的路径,就是RegionServer的共享目录 -->
<property>
<name>hbase.rootdir</name>
<value>hdfs://node01:8020/hbase</value>
</property>
</configuration>
分发hadoop下的core-site.xml到其他服务器
scp /export/servers/hadoop-3.1.3/etc/hadoop/core-site.xml root@node02:/export/servers/hadoop-3.1.3/etc/hadoop/
scp /export/servers/hadoop-3.1.3/etc/hadoop/core-site.xml root@node03:/export/servers/hadoop-3.1.3/etc/hadoop/
将hadoop中的core-site.xml和hdfs-site.xml复制到hbase的conf目录下面
cp /export/servers/hadoop-3.1.3/etc/hadoop/core-site.xml /export/servers/hbase-1.3.1/conf/
cp /export/servers/hadoop-3.1.3/etc/hadoop/hdfs-site.xml /export/servers/hbase-1.3.1/conf/
分发hbase
scp -r /etc/profile.d/my_env.sh root@node02:/etc/profile.d
scp -r /etc/profile.d/my_env.sh root@node03:/etc/profile.d
分发环境变量
scp -r /etc/profile.d/my_env.sh root@node02:/etc/profile.d
scp -r /etc/profile.d/my_env.sh root@node03:/etc/profile.d
刷新环境变量
source /etc/profile
启停hbase
#启动hbase
start-hbase.sh
#关闭hbase
stop-hbase.sh