Hbase安装配置(含分布式ZooKeeper)

环境说明

系统为CentOS 6.0

192.168.255.128  =》 server01
192.168.255.130  =》 server02
192.168.255.131  =》 server03

/etc/hosts文件中有这些IP和域名的映射关系

配置server01在hadoop用户下可以通过密钥无需密码访问server02和server03

1. 安装配置zookeeper

在三台服务器上执行以下同样的操作

a. 下载

wget http://apache.etoak.com//zookeeper/zookeeper-3.3.4/zookeeper-3.3.4.tar.gz -P /usr/local/src

b. 安装

cd /usr/local/src
tar zxvf zookeeper-3.3.4.tar.gz
mv zookeeper-3.3.4 /usr/local/zookeeper
chown -R hadoop:hadoop /usr/local/zookeeper

解压安装,目录的拥有者设置为zookeeper

c. 建立数据目录

mkdir /data/zookeeper
chown -R hadoop:hadoop /data/zookeeper

d. 修改配置文件

创建配置文件(注意:以下操作在hadoop用户中进行)

su - hadoop
ln -s /usr/local/zookeeper zookeeper
cd zookeeper/conf
cp zoo_sample.cfg zoo.cfg

编辑配置文件

 
 
  1. vi zoo.cfg
  2. # 修改数据目录dataDir为以下值  
  3. dataDir=/data/zookeeper  
  4.  
  5. # 添加以下段落  
  6. server.1=192.168.255.128:2887:3887  
  7. server.2=192.168.255.130:2888:3888  
  8. server.3=192.168.255.131:2889:3889 

server.id=host:port:port标识不同的ZooKeeper服务器

需要在每个服务器的数据目录中(这边为/data/zookeeper)创建myid文件,文件的内容为以上对应的server.id中的id

 
 
  1. vi /data/zookeeper/myid  
  2. # 值为各个服务器对应的server.id中的id
  3. id

e. 配置环境变量并启动ZooKeeper

 
 
  1. vi .bashrc  
  2. export ZOOKEEPER_HOME=/usr/local/zookeeper  
  3. PATH=$PATH:$ZOOKEEPER_HOME/bin  
  4. exit  
  5. su - hadoop 

需要在每一台机器上都启动

zkServer.sh start

f. 验证

zkCli.sh -server 192.168.255.128:2181

[zk: 192.168.255.128:2181(CONNECTED) 0] help

......

显示帮助内容

2. 安装HBase

同样也是三台服务器执行同样的操作

a. 下载

wget http://apache.etoak.com//hbase/hbase-0.90.5/hbase-0.90.5.tar.gz -P /usr/local/src

b. 安装

cd /usr/local/src
tar zxvf hbase-0.90.5.tar.gz
mv hbase-0.90.5 /usr/local/hbase
chown -R hadoop:hadoop /usr/loca/hbase

c. 配置文件

su - hadoop
ln -s /usr/local/hbase hbase
cd hbase/conf

编辑配置文件hbase-site.xml

 
 
  1. vi hbase-site.xml
  2. <configuration> 
  3.   <property> 
  4.     <name>hbase.rootdirname> 
  5.     <value>hdfs://server01:9000/hbasevalue> 
  6.     <description>区域服务器使用存储HBase数据库数据的目录description> 
  7.   property> 
  8.   <property> 
  9.     <name>hbase.cluster.distributedname> 
  10.     <value>truevalue> 
  11.     <description>指定HBase运行的模式:                 false: 单机模式或者为分布式模式                   
  12.                  true: 全分布模式  
  13.     description> 
  14.   property> 
  15.   <property> 
  16.     <name>hbase.zookeeper.quorumname> 
  17.     <value>server01,server02,server03value> 
  18.     <description>ZooKeeper集群服务器的位置description> 
  19.   property> 
  20. configuration> 

编辑配置文件regionservers

 
 
  1. vi regionservers  
  2. server02  
  3. server03 

设置环境变量hbase-env.sh

 
 
  1. vi hbase-evn.sh  
  2. export HBASE_MANAGES_ZK=false 

使用独立的ZooKeeper时需要修改HBASE_MANAGES_ZK值为false,为不使用默认ZooKeeper实例。

d. hadoop和hbase版本匹配问题

使用的版本信息如下:

hadoop-0.20.205.0.tar.gz
hbase-0.90.5.tar.gz

需要将hadoop主目录下的hadoop-core-0.20.205.0.jar和主目录中lib目录下的commons-configuration-1.6.jar复制到HBase主目录的lib目录中,并删除原来的hbase主目录的lib目录下的hadoop-core-0.20-append-r1056497.jar。

否则,会出现两个错误,不能连接zookeeper和找不到common.configuration对应的类

e. 修改hadoop用户环境变量并启动HBase

 
 
  1. vi .bashrc  
  2. export HBASE_HOME=/usr/local/hbase  
  3. PAHT=$PATH:$HBASE_HOME/bin 

exit
su - hadoop

以上使(先退出hadoop用户到root,然后登陆到hadoop用户)环境变量生效

需要先启动ZooKeeper(已经启动)和hdfs文件系统

注意:以下两个命令只需要在server01下启动

start-dfs.sh
start-hbase.sh

f. 测试

hbase shell
hbase(main):001:0> status
2 servers, 0 dead, 1.0000 average load

来自 “ ITPUB博客 ” ,链接:http://blog.itpub.net/26495863/viewspace-1362267/,如需转载,请注明出处,否则将追究法律责任。

转载于:http://blog.itpub.net/26495863/viewspace-1362267/

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值