Hbase实战一:安装配置

HBase 的安装和配置

前面的博客大数据处理架构Hadoop配置已经详细介绍如何安装Hadoop,但是安装完Hadoop,只包含HDFS和MapReduce等核心组件,并不包含HBase,因此,HBase需要独立安装。HBase下载地址

友情提示:前面的博客大数据处理架构Hadoop配置 Hadoop安装配置有三种方式:单机、伪分布、分布式,相对应的Hbase也有三种安装方式。如果是单机直接将二进制的压缩包解压就可以使用了

Hbase安装

  1. 解压压缩包
tar -zxvf hbase-1.2.1-bin.tar.gz -C /usr/local

2.更改解压缩文件夹名(仅仅为了方便)

mv /usr/local/hbase-1.2.1 /usr/local/hbase

3.配置环境变量,将Hbase路径添加到/etc/profile

vim  /etc/profile
# 添加以下内容
HBASE_HOME=/usr/local/hbase/bin
export PATH=$PATH:$HADOOP_HOME:$HBASE_HOME

4.查看Hbase的版本

hbase -version

5.添加Hbase的权限

chown -R hadoop:hadoop ./hbase

Hbase 配置

单机模式配置
  1. 配置/usr/local/hbase/conf/hbase-env.sh。配置JAVA环境变量,并添加配置HBASE_MANAGES_ZK(这个参数是要Zookeeper来管理)为true。(单机模式建议用Hbase自带的zookeeper)
vim ./hbase/conf/hbase-env.sh
# 添加下面两句(或者修改文件原有的参数,并去掉注释)
export JAVA_HOME=/usr/lib/jvm/java-8-openjdk-amd64 # 根据自己的版本,不要照抄
export HBASE_MANAGES_ZK=true
  1. 配置/usr/local/hbase/conf/hbase-site.xml,在启动HBase前需要设置属性hbase.rootdir,用于指定HBase数据的存储位置,因为如果不设置的话,hbase.rootdir默认为/tmp/hbase-${user.name},这意味着每次重启系统都会丢失数据。此处设置为HBase安装目录下的hbase-tmp文件夹即(/usr/local/hbase/hbase-tmp),添加配置如下:
vim  /usr/local/hbase/conf/hbase-site.xml

修改前:
这里写图片描述
修改后:
这里写图片描述
3.测试

cd /usr/local/hbase/
bin/start-hbase.sh
bin/hbase shell

安装成功截图:
这里写图片描述
4.停止运行Hbase

/usr/local/hbase/bin/stop-hbase.sh
伪分布配置hbase
  1. 配置/usr/local/hbase/conf/hbase-env.sh,配置JAVA_HOME,HBASE_CLASSPATH,HBASE_MANAGES_ZK,HBASE_CLASSPATH设置为本机Hadoop安装目录下的conf目录(即/usr/local/hadoop/conf)
# 添加下面三句(或者修改文件原有的参数,并去掉注释)
export JAVA_HOME=/usr/lib/jvm/java-8-openjdk-amd64 # 根据自己的版本,不要照抄
export HBASE_CLASSPATH=/usr/local/hadoop/conf #
export HBASE_MANAGES_ZK=true

2.配置/usr/local/hbase/conf/hbase-site.xml,修改hbase.rootdir,指定HBase数据在HDFS上的存储路径;将属性hbase.cluter.distributed设置为true。假设当前Hadoop集群运行在伪分布式模式下,在本机上运行,且NameNode运行在9000端口。

vim /usr/local/hbase/conf/hbase-site.xml

修改前:
这里写图片描述
修改后:
这里写图片描述
3. 接下来测试运行HBase。
第一步:首先登陆ssh,之前设置了无密码登陆,因此这里不需要密码;再切换目录至/usr/local/hadoop;再启动hadoop,如果已经启动hadoop请跳过此步骤。命令如下:

ssh localhost
cd /usr/local/hadoop
./sbin/start-dfs.sh

第二步:切换目录至/usr/local/hbase;再启动HBase.命令如下

cd /usr/local/hbase/
bin/start-hbase.sh
bin/hbase shell

启动Hadoop—>启动HBase—>关闭HBase—>关闭Hadoop

Hbase安装配置 1、前提:要有装好的hdfs分布式文件系统和zookeeper集群 2、各台linux机器上传hbase安装包:hbase-0.98.12.1-hadoop2-bin.tar.gz 3、解压jar包:tar -zxvf hbase-0.98.12.1-hadoop2-bin.tar.gz 4、把hadoop的hdfs-site.xml和core-site.xml 放到hbase/conf下: cd root/hadoop/etc/hadoop scp -r hdfs-site.xml /root/hbase-0.98.12.1-hadoop2/conf/ scp -r core-site.xml /root/hbase-0.98.12.1-hadoop2/conf/ 4、配置hbase集群,要修改3个文件(首先zk集群已经安装好了) 5、修改hbase-env.sh export JAVA_HOME=/usr/java/jdk1.7.0_xxx (1)、告诉hbase使用外部的zk export HBASE_MANAGES_ZK=false 6、修改vim hbase-site.xml <property> <name>hbase.rootdir</name> <value>hdfs://namenade/hbase</value>//this is your real nodename. </property> <property> <name>hbase.zookeeper.property.dataDir</name> <value>/opt/zookeeper</value> </property> <property> <name>hbase.cluster.distributed</name> <value>true</value> </property> <property> <name>hbase.zookeeper.quorum</name> <value>node11,node12,node13</value> </property> 7、修改vim regionservers (指定regionserver) Node11 node12 node13 8、指定 standby 的hbase的副节点,注意:该文件不存在,需要创建 vim backup-masters Node12 9、拷贝hbase到其他节点或机器 Cd /root/hbase-0.98.12.1-hadoop2 scp -r conf node12:/root/hbase-0.98.12.1-hadoop2/ scp -r conf node13:/root/hbase-0.98.12.1-hadoop2/ 10、设置私钥并同步时间。 11、启动所有的hbase (1)、分别启动zk /home/zookeeper-xxx/bin/./zkServer.sh start (2)、启动hdfs集群 /root/hadoop/sbin/./start-dfs.sh (3)、启动hbase,在主节点上运行: /root/hbase-0.98.12.1-hadoop2/bin/./start-hbase.sh 12、通过浏览器访问hbase管理页面 Node11:60010 Node12:60010 Node11:50070 Node12:50070 13、为保证集群的可靠性,要启动多个HMaster hbase-daemon.sh start master
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

程序猿阿三

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值