实验1 hbase的安装与配置
- 实验名称:
安装和配置hbase
二.实验目的:
掌握hbase的本地安装,伪分布模式,完全分布模式的安装与配置
三.实验原理:
安装hbase分以下三种模式:
本地安装:不需要hdfs,文件保存在linux的文件系统中
伪分布模式:需要hdfs
全分布模式:需要hdfs
- 实验环境
操作系统:ubuntu 16.04
Hadoop: hadoop2.6.5或其他2.x的版本
Hbase:hbase-1.7.1,安装包名称为hbase-1.7.1-bin.tar.gz
操作系统用户名:hadoop2006024109,用户名不限定
JDK: 1.8.安装好且配置好环境变量,假设JAVA_HOME是/home/hadoop2006024109/jdk
免密码登录:完全分布模式的3个节点--node1,node2,node3,需要预先设置好免密码登录
安装NTP:完全分布模式的三个节点--node1,node2,node3,需要都预先安装NTP,保证主机时间是一样的
五:实验步骤
1准备工作:
(1)下载安装包,下载链接为https://mirrors.aliyun.com/apache/hbase/
- 解压安装包到用户home目录,并创建软连接
tar -zxvf hbase-1.7.1-bin.tar.gz -C~
cd ~
ln -s hbase-1.7.1 hbase
- 修改环境变量vi /.bashrc
在文档最后增加如下代码:
export HBASE_HOME=/home/hadoop2006024109/hbase
export PATH=$HBASE_HOME/bin:$PATH
- 使环境变量生效 source ~/.bashrc
2本地模式
- 创建目录存放数据
cd ~/hbase mkdir data
- 修改配置文件hbase-env.sh
cd ~/hbase/conf
vi hbase-site.xml
<property>
<name>hbase:rootdir</name>
<value>file:home/hadoop2006024109/hbase/data</value>
</property>
(3)启动hbase start-hbase.sh
(4)运行hbase-shell,做一些测试 hbase-shell
3伪分布模式
注意:由于上面实验已经启动了hbase,用以下命令停止hbase
stop -hbase.sh
- 修改hbase-env.sh,使用hbase自带的ZK
cd ~/hbase/conf
vi hbase-env.sh
将HBASE_MANAGES_ZK=true
export HBASE_MANAGES_ZK=true
- 修改hbase-site.xml
下面的注释<!---->可以不放在文件中
<property>
<name>hbase.rootdir</name>
<value>hdfs://192.168.30.132:8020/hbase</value>
</property>
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<property>
<name>hbase.zookeeper.quorum</name>
<value>node1</value>
</property>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
- 修改regionservers文件
vi regionservers node1
- 启动hbase start-hbase.sh
(5)检查进程 jps
可以看到除了hadoop进程,还有hbase的俩个进程HMaster,HRegionServer
4完全分布式模式
采用三个节点node1,node2,node3做完全分布式模式,node1作HMaster,node2,node3作RegionServer
注意:由于上面实验已经启动了hbase,用以下命令停止hbase
stop -hbase.sh
先在节点1操作
- 修改hbase-env.sh,使用hbase自带的ZK
vi hbase-env.sh
Export JAVA_HOME=/home/hadoop2006024109/jdk
export HBASE_MANAGES_ZK=true
(2)修改hbase-site.xml
vi hbase-site.xml
<property>
<name>hbase.rootdir</name>
<value>hdfs://192.168.30.132:8020/hbase</value>
</property>
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<property>
<name>hbase.zookeeper.quorum</name>
<value>192.168.30.132,192.168.30.133,192.168.30.134</value>
</property>
<property>
<name>dfs.replication</name>
<value>2</value>
</property>
<property>
<name>hbase.master.maxclockskew</name>
<value>180000</value>
</property>
(3)修改regionservers文件
vi regionservers
node2
node3
(4)将node1的配置复制到另外俩台主机node2,node3
cd ~
scp -r hbase-1.7.1/ node2:/home/hadoop2006024109
scp -r hbase-1.7.1/ node3:/home/hadoop2006024109
- ssh登录node2,创建目录软连接
应保持JDK安装路径与配置文件中的/home/hadoop2006024109/jdk一致
ssh node2
ln -s hbase-1.7.1 hbase
Exit
- ssh登录node3,创建目录软连接
应保持JDK安装路径与配置文件中的/home/hadoop2006024109/jdk一致
ssh node2
ln -s hbase-1.7.1 hbase
exit
- 在node1启动hbase start-hbase.sh
- 检查进程,jps
可以看到除了hadoop进程,还有hbase的俩个进程HMaster,HRegionServer