1.首先 我的配置
安装了
jdk1.7.0_79
hadoop-2.7.1
zookeeper-3.4.7
yarn也有昂
这些不重要
hive-1.2.1
sqoop-1.4.6
azkaban-web-2.5.0
azkaban-executor-2.5.0
然后下载的hbase是hbase-1.2.1版本的 可以到官网下载
2.其次 最重要的是 我已经搭建了HA 高可用 安装过程吃过一次亏了
3.步骤
- 下载Hbase的镜像
- 解压到指定的目录中
我先建了个目录然后解压到那里的
[root@min1 apps]# mkdir hbase
[root@min1 apps]# cd /home/
[root@min1 home]# tar -zxvf hbase-1.2.1-bin.tar.gz -C /usr/apps/hbase/
3.修改hbase-env.sh
因为我使用的是jdk1.7 所以需要这几个 不能注释 1.8可以注释掉
# see http://wiki.apache.org/hadoop/PerformanceTuning
export HBASE_OPTS="-XX:+UseConcMarkSweepGC"
# Configure PermSize. Only needed in JDK7. You can safely remove it for JDK8+
export HBASE_MASTER_OPTS="$HBASE_MASTER_OPTS -XX:PermSize=128m -XX:MaxPermSize=128m"
export HBASE_REGIONSERVER_OPTS="$HBASE_REGIONSERVER_OPTS -XX:PermSize=128m -XX:MaxPermSize=128m"
# Uncomment one of the below three options to enable java garbage collection logging for the server-side processes.
将jdk路径写上 然后那个zk设为false 单机模式才是true
# The java implementation to use. Java 1.7+ required.
export JAVA_HOME=/usr/local/jdk1.7.0_79/
# Tell HBase whether it should manage it's own instance of Zookeeper or not.
export HBASE_MANAGES_ZK=false
- 修改hbase-site.xml
第一个rootdir
应为搭建了ha 所以应该写 虚拟的 qf 我的hdfs文件也是写的qf
因为不一定哪台机子是老大
如果没有搭建 ha 就
hbase.rootdir
hdfs://hadoop01:9000/hbase
hadoop01是你的正在安装主机的名字 我的第一台虚拟机名字就是hadoop01
第二个是从Zookeeper的配置文件拿过来的
第三个那个文件夹 是Zookeeper的放东西的地方 没有可以创建 一个 不过最好跟Zookeeper的配置一样
应该也能在Zookeeper配置文件找到
emm 没错
这是我的Zookeeper配置文件
<configuration>
<property>
<name>hbase.rootdir</name>
<value>hdfs://qf/hbase</value>
</property>
<property>
<name>hbase.zookeeper.quorum</name>
<value>hadoop01:2181,hadoop02:2181,hadoop03:2181</value>
</property>
<!--将hbase的分布式集群功能开启-->
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<property>
<name>hbase.zookeeper.property.dataDir</name>
<value>/home/zkdata</value>
</property>
</configuration>
还要把hdfs-site.xml和core-site.xml复制到hbase的conf目录下。不然会报找不到qf的错误。
hbase的ha配置就是在conf目录下,配置backup-masters文件,里面写备用的master。
5.然后修改regionservers 在conf下
写下你另外两台机子的名字 或地址
hadoop02
hadoop03
6.hbase的高可用配置
创建文件 这些操作都在conf下 这次好像是配置第二个master
这是创建第二个老大(hbase的老大) 跟ha差不多 一个挂掉用另一个
vi backup-master
写入hadoop02
7.然后将hbase目录拷贝考hadoop02 和 03
scp -r hbase/ hadoop02:/usr/local/
8…然后启动hbase服务 start-hbase.sh
为了方便可以配置环境变量 不然就只能在hbase的bin目录下使用命令
看看jps 然后第二台第三台也有
9.然后hbase shell
输入list不出错 就代表成功
注意点 :1.启动hbase前要启动Zookeeper和hdfs
2.启动Zookeeper要查看状态 不要光jps能看到服务就万事大吉
要使用命令zkServer.sh status 查看三台机子的状态 没有错误即可(我的原来出过错的)
3.若是zk有错误可以查看我的博客 或者百度
欢迎指正