CentOS分布式环境安装HBase-0.96.0

一、安装zookeeper
在安装好分布式hadoop的环境下,继续安装zookeeper-3.4.5。
$ wget http://124.202.164.9/download/32878722/41763290/4/gz/165/152/1353566847397_152/zookeeper-3.4.5.tar.gz
$ tar -xf zookeeper-3.4.5.tar.gz
$ cp zookeeper-3.4.5/conf/zoo_sample.cfg zookeeper-3.4.5/conf/zoo.cfg 
修改zookeeper配置文件:
$ vim zookeeper-3.4.5/conf/zoo.cfg
做如下修改:
tickTime=2000  
dataDir=/home/ruifeng.shan/zookeeper  
clientPort=2181  
initLimit=5  
syncLimit=2  
server.1=master:2888:3888  
server.2=node:2888:3888  
server.3=slave:2888:3888
在你指定的dataDir目录下新建一个文件myid,在里面添加你指定的server编号。例如,你为hostname名为master的指定了如下配置
server.1=master:2888:3888  ,所以它的编号应该是1.
将zookeeper-3.4.5分发到其他机器。然后修改对应的myid文件内容为之前给其指定的编号。如node为2,slave为3.
分别启动zookeeper服务。在每台机器上切换到zookeeper-3.4.5目录,执行
$bin/zkServer.sh start 
就可以启动zookeeper服务。
二、安装hbase-0.96.0
为了和hadoop-2.2.0匹配,选择的hbase版本为0.96.0
$ wget http://mirror.bit.edu.cn/apache/hbase/hbase-0.96.0/hbase-0.96.0-hadoop2-bin.tar.gz
$ tar -xf hbase-0.96.0-hadoop2-bin.tar.gz
$ cd  hbase-0.96.0
修改 conf 下的配置:
 vim conf/hbase-env.sh
 修改  JAVA_HOME:
# The java implementation to use.  Java 1.6 required.
export  JAVA_HOME=/usr/lib/jvm/java/jdk1.6.0_37
修改HBase 使用zookeeper的方式:
# Tell HBase whether it should manage it's own instance of Zookeeper or not.
export HBASE_MANAGES_ZK=false
这个参数默认是 true。意思是是否让hbase 单独管理 zookeeper
如果安装的机器上已经安装了zookeeper,并且这个zookeeper是多个平台共用的,那么这个参数应该设置为 false
如果集群上没有安装zookeeper,并且只有hbase 自己使用zookeeper,那么这个参数应该设置为true。
修改其conf目录下的hbase-site.xml文件。内容如下:
<configuration>
<property>
<name>hbase.rootdir</name>
<value>hdfs://master:8089/hbase</value>
</property>

<property>
<name>hbase.master</name>
<value>hdfs://master:60000</value>
</property>

<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>

<property>
<name>hbase.zookeeper.property.clientPort</name>
<value>2181</value>
</property>

<property>
<name>hbase.zookeeper.quorum</name>
<value>master,node,slave</value>
</property>

<property>
<name>hbase.zookeeper.property.dataDir</name>
<value>/home/aaron/zookeeper</value>
</property>

<property>
<name>hbase.client.scanner.caching</name>
<value>200</value>
</property>

<property>
<name>hbase.balancer.period</name>
<value>300000</value>
</property>

<property>
<name>hbase.client.write.buffer</name>
<value>10485760</value>
</property>

<property>
<name>hbase.hregion.majorcompaction</name>
<value>7200000</value>
</property>

<property>
<name>hbase.hregion.max.filesize</name>
<value>67108864</value>
<description>
Maximum HStoreFile size. If any one of a column families' HStoreFiles has
grown to exceed this value, the hosting HRegion is split in two.</description>
</property>

<property>
<name>hbase.hregion.memstore.flush.size</name>
<value>1048576</value>
<description>
Memstore will be flushed to disk if size of the memstore
exceeds this number of bytes. Value is checked by a thread that runs
every hbase.server.thread.wakefrequency.</description>
</property>

<property>
<name>hbase.server.thread.wakefrequency</name>
<value>30000</value>
<description>Time to sleep in between searches for work (in milliseconds).
Used as sleep interval by service threads such as log roller.</description>
</property>

</configuration>
其中hbase.rootdir要保持与hadoop的core-site.xml文件中的fs.default.name中的值一致。
hbase的master 和 regionserver的时钟要保持一致,否则启动regionserver的时候会报如下错误:
org.apache.hadoop.hbase.ClockOutOfSyncException: org.apache.hadoop.hbase.ClockOutOfSyncException: Server hadoop02,60020,1374576225508 has been rejected; Reported time is too far out of sync with master.  Time difference of 62062623ms > max allowed of 30000ms
这是由于master 和 regionserver之间的时间误差太大造成的。
解决方法1 :修改下面的参数
<name>hbase.master.maxclockskew</name>
<value>180000</value>
<description>Time difference of regionserver from master</description>
该参数默认值为 30 000 (30秒)
 解决方法2: 使用ntpdate 同步集群的时钟
修改regionservers 文件配置:
这个文件是用来指定regionserver的机器的,一行一个,一般使用datanode作为regionserver:
$ vim conf/regionservers
master
node
slave
配置 backup-masters:
$ vim conf/backup-masters
master-backup
配置backup-masters 可以在master 挂掉之后自动启动backup masters
注意:为了兼容Hadoop-2.2.0,需要将hbase的lib包中的内容lib包中的hadoop-common-2.1.0-beta.jar替换成hadoop-2.2.0/share/hadoop/common目录下的hadoop-common-2.2.0.jar。
启动hbase:
如果集群各个机器都有ssh 无密码登陆,可以直接使用 start-hbase.sh 启动整个集群。
或者到每个机器上使用daemon脚本启动(切换到hbase目录下):
到master 机器上:bin/hbase-daemon.sh start master
到regionserver 机器上 : bin/hbase-daemon.sh start regionserver
查看集群是否正常:
查看master的监控页面:
http://master:60010
转载请注明出处: http://blog.csdn.net/iAm333
  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 6
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 6
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值