HBase集群部署

目录

1 下载HBase安装包

2 【hadoop1执行】,修改配置文件,

1修改 hbase-env.sh文件

2修改配置文件,修改conf/hbase-site.xml文件 

3修改配置文件,修改conf/regionservers文件

3【hadoop01执行】,分发hbase到其它机器

1【hadoop02、hadoop03执行】,配置软链接

2【hadoop01、hadoop02、hadoop03执行】,配置环境变量

4【hadoop01执行】启动HBase

​编辑5简单测试使用HBase


​​

​​

名称

ip

hadoop01

192.168.204.130

hadoop02

192.168.204.131

hadoop03

192.168.204.132

1 下载HBase安装包

# 下载
cd /mwd
wget http://archive.apache.org/dist/hbase/2.1.0/hbase-2.1.0-bin.tar.gz

# 解压
cd /mwd
tar -zxvf hbase-2.1.0-bin.tar.gz -C /export/server

# 配置软链接
cd /export/server/
ln -s /export/server/hbase-2.1.0 /export/server/hbase

2 【hadoop1执行】,修改配置文件,

cd /export/server/hbase/conf

1修改 hbase-env.sh文件

vim hbase-env.sh
# 在28行配置JAVA_HOME
export JAVA_HOME=/usr/lib/jvm/jdk1.8.0_161
# 在126行配置:
# 意思表示,不使用HBase自带的Zookeeper,而是用独立Zookeeper
export HBASE_MANAGES_ZK=false
# 在任意行,比如26行,添加如下内容:
export HBASE_DISABLE_HADOOP_CLASSPATH_LOOKUP="true"

2修改配置文件,修改conf/hbase-site.xml文件 

cd /export/server/hbase/conf/
vim hbase-site.xml 
<!-- 将文件的全部内容替换成如下内容:-->
<configuration>
        <!-- HBase数据在HDFS中的存放的路径 -->
        <property>
            <name>hbase.rootdir</name>
            <value>hdfs://hadoop01:8020/hbase</value>
        </property>
        <!-- Hbase的运行模式。false是单机模式,true是分布式模式。若为false,Hbase和Zookeeper会运行在同一个JVM里面 -->
        <property>
            <name>hbase.cluster.distributed</name>
            <value>true</value>
        </property>
        <!-- ZooKeeper的地址 -->
        <property>
            <name>hbase.zookeeper.quorum</name>
            <value>hadoop01,hadoop02,hadoop03</value>
        </property>
        <!-- ZooKeeper快照的存储位置 -->
        <property>
            <name>hbase.zookeeper.property.dataDir</name>
            <value>/export/server/apache-zookeeper-3.5.9-bin/data</value>
        </property>
        <!--  V2.1版本,在分布式情况下, 设置为false -->
        <property>
            <name>hbase.unsafe.stream.capability.enforce</name>
            <value>false</value>
        </property>
</configuration>

3修改配置文件,修改conf/regionservers文件

vim regionservers
# 填入如下内容
hadoop01
hadoop02
hadoop03
  1. 3【hadoop01执行】,分发hbase到其它机器

scp -r /export/server/hbase-2.1.0 hadoop02:/export/server/
scp -r /export/server/hbase-2.1.0 hadoop03:/export/server/
  1. 1【hadoop02、hadoop03执行】,配置软链接

cd /export/server
ln -s /export/server/hbase-2.1.0 /export/server/hbase
  1. 2【hadoop01、hadoop02、hadoop03执行】,配置环境变量

vim /etc/profile
# 配置在/etc/profile内,追加如下两行
export HBASE_HOME=/export/server/hbase
export PATH=$HBASE_HOME/bin:$PATH

source /etc/profile
  1. 4【hadoop01执行】启动HBase

请确保:Hadoop HDFS、Zookeeper是已经启动了的

start-hbase.sh

# 如需停止可使用
stop-hbase.sh

由于我们配置了环境变量export PATH=$PATH:$HBASE_HOME/bin

start-hbase.sh即在$HBASE_HOME/bin内,所以可以无论当前目录在哪,均可直接执行

  1. 验证HBase

    浏览器打开:http://hadoop01:16010,即可看到HBase的WEB UI页面

  2. 5简单测试使用HBase

    【hadoop01执行】

hbase shell

# 创建表
create 'test', 'cf'

# 插入数据
put 'test', 'rk001', 'cf:info', 'itheima'

# 查询数据
get 'test', 'rk001'

# 扫描表数据
scan 'test'
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 4
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值