hbase-0.98.9-hadoop2 搭建
解压缩,并重命名
1. [root@Master local]#mv hbase-** (解压好的文件) hbase0.98
复制代码
补充:(必须)
scp $HADOOP_HOME/etc/hadoop/core-site.xml $HBASE_HOME/conf
scp $HADOOP_HOME/etc/hadoop/hdfs-site.xml $HBASE_HOME/conf
《所加入的配置文件一定要注意将zk的集群IP写对,否则会报错》
修改HBase的配置文件#HBASE_HOME/conf/hbase-site.xml,修改内容如下:
<property>
<name>hbase.zookeeper.quorum</name>
<value>172.16.11.223,172.16.11.224,172.16.11.225</value>
</property>
<property>
<name>hbase.zookeeper.property.dataDir</name>
<value>/home/zookeeper</value>
</property>
<property>
<name>hbase.zookeeper.property.clientPort</name>
<value>2181</value>
</property>
<property>
<name>hbase.rootdir</name>
<value>hdfs://Machenmaster/hbase</value> //注意这里的参数值,好core-site.xml一致,可能自己的集
</property> //群模式 不一样,参数也不一样,其他模式可能:
// hdfs://172.16.11.222:9000/hbase
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<property>
<name>hbase.tmp.dir</name>
<value>/home/hbase0.98/data/tmp/hbase</value>
</property>
<property>
<name>hbase.master.maxclockskew</name> //这里的配置是为了防止server 节点和master时间不
<value>200000</value> //一致,导致regionserver启动报错;
</property>
(这里不想配置上面也行,机器时间同步就行 用这个命令:date -s "2017-03-14 18:00")
复制代码
修改 $HBASE_HOME/conf/hbase-env.sh
:
# The java implementation to use. Java 1.6 required.
export JAVA_HOME=/usr/jdk1.7.0_79
export HBASE_MANAGES_ZK=false 《新改的地方》
(false是手动启动zookeeper,true是一块启动zk,这里建议写false,否则会复写zk的myid的值 导致HA模式启动时一直提示端口占用的错误)
# Extra Java CLASSPATH elements. Optional.
# export HBASE_CLASSPATH=
# The maximum amount of heap to use, in MB. Default is 1000.
#export HBASE_HEAPSIZE=1000
设置RegionServer和Master副本
(1)vim /home/hbase0.98/conf/regionservers
mach42
mach43
mach44
(2) vim /home/hbase0.98/conf/backup-masters
mach41
把修改好的hbase包发到其他节点上:
scp -r /home/hbase0.98 mach41:/home
scp -r /home/hbase0.98 mach42:/home
scp -r /home/hbase0.98 mach43:/home
scp -r /home/hbase0.98 mach44:/home
所有节点配置:
vim /etc/profile
添加$HBASE_HOME $HBASE_HOME/bin
在主节点启动:
测试Hbase是否启动正常:
1) 在Master主机中执行jps,查看进程。会新增一个HMaster 进程
2) 在regionserver中执行 jps,新增HRegionServer。
(2)通过浏览器查看: http://mach40:60010
7.执行hbase脚本命令:
1. [root@Slave2 local]# hbase shell
这里我写了一个建表的例子:
create 'test_distributed','cf'
返回到hadoop的HDFS的界面查找:
(我的mach40是stanby,mach41是active)