HBase全分布式搭建

1.首先 我的配置
安装了
jdk1.7.0_79
hadoop-2.7.1
zookeeper-3.4.7
yarn也有昂

这些不重要
hive-1.2.1
sqoop-1.4.6
azkaban-web-2.5.0
azkaban-executor-2.5.0

然后下载的hbase是hbase-1.2.1版本的 可以到官网下载

2.其次 最重要的是 我已经搭建了HA 高可用 安装过程吃过一次亏了

3.步骤

  1. 下载Hbase的镜像
  2. 解压到指定的目录中
    我先建了个目录然后解压到那里的
[root@min1 apps]# mkdir hbase
[root@min1 apps]# cd /home/
[root@min1 home]# tar -zxvf hbase-1.2.1-bin.tar.gz -C /usr/apps/hbase/

3.修改hbase-env.sh

因为我使用的是jdk1.7 所以需要这几个 不能注释 1.8可以注释掉

# see http://wiki.apache.org/hadoop/PerformanceTuning
export HBASE_OPTS="-XX:+UseConcMarkSweepGC"

# Configure PermSize. Only needed in JDK7. You can safely remove it for JDK8+
export HBASE_MASTER_OPTS="$HBASE_MASTER_OPTS -XX:PermSize=128m -XX:MaxPermSize=128m"
export HBASE_REGIONSERVER_OPTS="$HBASE_REGIONSERVER_OPTS -XX:PermSize=128m -XX:MaxPermSize=128m"

# Uncomment one of the below three options to enable java garbage collection logging for the server-side processes.

将jdk路径写上 然后那个zk设为false 单机模式才是true

# The java implementation to use.  Java 1.7+ required.
export JAVA_HOME=/usr/local/jdk1.7.0_79/



# Tell HBase whether it should manage it's own instance of Zookeeper or not.
export HBASE_MANAGES_ZK=false
  1. 修改hbase-site.xml
    第一个rootdir
    应为搭建了ha 所以应该写 虚拟的 qf 我的hdfs文件也是写的qf
    因为不一定哪台机子是老大
    如果没有搭建 ha 就
    hbase.rootdir
    hdfs://hadoop01:9000/hbase
    hadoop01是你的正在安装主机的名字 我的第一台虚拟机名字就是hadoop01

第二个是从Zookeeper的配置文件拿过来的

第三个那个文件夹 是Zookeeper的放东西的地方 没有可以创建 一个 不过最好跟Zookeeper的配置一样
应该也能在Zookeeper配置文件找到
emm 没错
这是我的Zookeeper配置文件
在这里插入图片描述

<configuration>
        <property>
                <name>hbase.rootdir</name>
                <value>hdfs://qf/hbase</value>
        </property>
        <property>
                <name>hbase.zookeeper.quorum</name>
                <value>hadoop01:2181,hadoop02:2181,hadoop03:2181</value>
        </property>
		<!--将hbase的分布式集群功能开启-->
		<property>
			<name>hbase.cluster.distributed</name>
			<value>true</value>
		</property>
		<property>
			<name>hbase.zookeeper.property.dataDir</name>
			<value>/home/zkdata</value>
		</property>
</configuration>

还要把hdfs-site.xml和core-site.xml复制到hbase的conf目录下。不然会报找不到qf的错误。

hbase的ha配置就是在conf目录下,配置backup-masters文件,里面写备用的master。

5.然后修改regionservers 在conf下
写下你另外两台机子的名字 或地址

hadoop02
hadoop03

6.hbase的高可用配置
创建文件 这些操作都在conf下 这次好像是配置第二个master
这是创建第二个老大(hbase的老大) 跟ha差不多 一个挂掉用另一个

vi backup-master

写入hadoop02

7.然后将hbase目录拷贝考hadoop02 和 03

scp -r hbase/ hadoop02:/usr/local/

8…然后启动hbase服务 start-hbase.sh 为了方便可以配置环境变量 不然就只能在hbase的bin目录下使用命令

看看jps 然后第二台第三台也有

9.然后hbase shell
输入list不出错 就代表成功

注意点 :1.启动hbase前要启动Zookeeper和hdfs
2.启动Zookeeper要查看状态 不要光jps能看到服务就万事大吉
要使用命令zkServer.sh status 查看三台机子的状态 没有错误即可(我的原来出过错的)
3.若是zk有错误可以查看我的博客 或者百度

欢迎指正

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值