目录
2修改配置文件,修改conf/hbase-site.xml文件
3修改配置文件,修改conf/regionservers文件
2【hadoop01、hadoop02、hadoop03执行】,配置环境变量
| |
名称 | ip |
hadoop01 | 192.168.204.130 |
hadoop02 | 192.168.204.131 |
hadoop03 | 192.168.204.132 |
1 下载HBase安装包
# 下载
cd /mwd
wget http://archive.apache.org/dist/hbase/2.1.0/hbase-2.1.0-bin.tar.gz
# 解压
cd /mwd
tar -zxvf hbase-2.1.0-bin.tar.gz -C /export/server
# 配置软链接
cd /export/server/
ln -s /export/server/hbase-2.1.0 /export/server/hbase
2 【hadoop1执行】,修改配置文件,
cd /export/server/hbase/conf
1修改 hbase-env.sh文件
vim hbase-env.sh
# 在28行配置JAVA_HOME
export JAVA_HOME=/usr/lib/jvm/jdk1.8.0_161
# 在126行配置:
# 意思表示,不使用HBase自带的Zookeeper,而是用独立Zookeeper
export HBASE_MANAGES_ZK=false
# 在任意行,比如26行,添加如下内容:
export HBASE_DISABLE_HADOOP_CLASSPATH_LOOKUP="true"
2修改配置文件,修改conf/hbase-site.xml
文件
cd /export/server/hbase/conf/
vim hbase-site.xml
<!-- 将文件的全部内容替换成如下内容:-->
<configuration>
<!-- HBase数据在HDFS中的存放的路径 -->
<property>
<name>hbase.rootdir</name>
<value>hdfs://hadoop01:8020/hbase</value>
</property>
<!-- Hbase的运行模式。false是单机模式,true是分布式模式。若为false,Hbase和Zookeeper会运行在同一个JVM里面 -->
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<!-- ZooKeeper的地址 -->
<property>
<name>hbase.zookeeper.quorum</name>
<value>hadoop01,hadoop02,hadoop03</value>
</property>
<!-- ZooKeeper快照的存储位置 -->
<property>
<name>hbase.zookeeper.property.dataDir</name>
<value>/export/server/apache-zookeeper-3.5.9-bin/data</value>
</property>
<!-- V2.1版本,在分布式情况下, 设置为false -->
<property>
<name>hbase.unsafe.stream.capability.enforce</name>
<value>false</value>
</property>
</configuration>
3修改配置文件,修改conf/regionservers
文件
vim regionservers
# 填入如下内容
hadoop01
hadoop02
hadoop03
-
3【hadoop01执行】,分发hbase到其它机器
scp -r /export/server/hbase-2.1.0 hadoop02:/export/server/
scp -r /export/server/hbase-2.1.0 hadoop03:/export/server/
-
1【hadoop02、hadoop03执行】,配置软链接
cd /export/server
ln -s /export/server/hbase-2.1.0 /export/server/hbase
-
2【hadoop01、hadoop02、hadoop03执行】,配置环境变量
vim /etc/profile
# 配置在/etc/profile内,追加如下两行
export HBASE_HOME=/export/server/hbase
export PATH=$HBASE_HOME/bin:$PATH
source /etc/profile
-
4【hadoop01执行】启动HBase
请确保:Hadoop HDFS、Zookeeper是已经启动了的
start-hbase.sh
# 如需停止可使用
stop-hbase.sh
由于我们配置了环境变量export PATH=$PATH:$HBASE_HOME/bin
start-hbase.sh即在$HBASE_HOME/bin内,所以可以无论当前目录在哪,均可直接执行
-
验证HBase
浏览器打开:http://hadoop01:16010,即可看到HBase的WEB UI页面
-
5简单测试使用HBase
【hadoop01执行】
hbase shell
# 创建表
create 'test', 'cf'
# 插入数据
put 'test', 'rk001', 'cf:info', 'itheima'
# 查询数据
get 'test', 'rk001'
# 扫描表数据
scan 'test'