Hadoop+Hbase+ZooKeeper 安装配置及需要注意的事项

转自:http://blog.csdn.net/FranklySun/article/details/6443027

本文重点讲解Hbase的安装、配置、问题解决

关于hadoop和zookeeper的安装配置及相关问题,可以参考:

hadoop:http://blog.csdn.net/FranklySun/archive/2011/05/13/6417984.aspx

zookeeper:http://blog.csdn.net/FranklySun/archive/2011/05/16/6424582.aspx

 

测试环境

三系统均为  Ubuntu11.04,分别是:

 

frank-1(主机名:即hostname):192.168.0.100   masters-----namenode
frank-2(主机名:即hostname):192.168.0.102   slaves-------datanode

frank-3(主机名:即hostname):192.168.0.103   slaves-------datanode

 

 

 

要求

 

以下是安装使用hbase所要遵守的要求,如果不这样做的话,会产生不可预知的异常、错误、数据丢少等问题(当然,有可能会成功)。

 

1、JDK

     这个不用说了,必须的(jdk6以上)

2、hadoop

     必须正确的安装和配置,可参考http://blog.csdn.net/FranklySun/archive/2011/05/13/6417984.aspx(要注意:版本问题)

 

     版本问题,这是一个非常重要的问题,一定要重视它,否则会很杯具。我就是因为这个整了好几个小时(当然还包括其他的问题)。

     This version of HBase will only run on Hadoop 0.20.x. It will not run on hadoop 0.21.x (nor 0.22.x). HBase will lose data unless it is running on an HDFS that has a durable sync. Currently only the branch-0.20-append branch has this attribute[]. No official releases have been made from this branch up to now so you will have to build your own Hadoop from the tip of this branch. Michael Noll has written a detailed blog, Building an Hadoop 0.20.x version for HBase 0.90.2, on how to build an Hadoop from branch-0.20-append. Recommended.

     以上是官方文档http://hbase.apache.org/book/notsoquick.html中的叙述,只看到了Hadoop 0.20.x.,所以刚开始用了hadoop-0.20.0,经测试是不可以的,hadoop-0.20.2测试成功(当然这里的hbase版本是0.90.2,其他的版本的情况就不清楚了)。

3、SSH

    也是必须的,上面hadoop的安装过程中提到。

4、DNS

     即:各节点的主机名与IP设置,在hadoop配置中也提到。

     如果,不是hosts中配置的服务器,还可以通过hbase.regionserver.dns.nameserver来另外指定。(这是在hbase-site.xml中配置)

5、NTP

    所有节点的时间校准。(网上有很多资料,这里省略)

6、ulimit and nproc(所有节点均要设置)

    默认的大小是1024,以Ubuntu为例:

    在/etc/security/limits.conf文件中增加以下配置:

    hadoop      -            nofile      32768

    hadoop      hard      nproc      32000

    hadoop      soft       nproc      32000

    在/etc/pam.d/common-session文件中增加下面配置,否则上面的配置不启作用:

    session      required       pam_limits.so

7、在/home/frank/HadoopInstall/hadoop-config/hdfs-site.xml文件中增加配置:

     <property>

<name>dfs.datanode.max.xcievers</name>

<value>4096</value>

</property>

8、ZooKeeper(使用单独的zookeeper,并非hbase自带的zookeeper)

zookeeper的安装配置可参考http://blog.csdn.net/FranklySun/archive/2011/05/16/6424582.aspx

     其中,zoo.cfg的配置如下:

# The number of milliseconds of each tick

tickTime=2000

# The number of ticks that the initial 

# synchronization phase can take

initLimit=10

# The number of ticks that can pass between 

# sending a request and getting an acknowledgement

syncLimit=5

# the directory where the snapshot is stored.

dataDir=/home/frank/ZooKeeperInstall/data

# the port at which the clients will connect

clientPort=2222

 

server.1=192.168.0.100:2888:3888

server.2=192.168.0.102:2888:3888

server.3=192.168.0.103:2888:3888

 

 

安装

 

    很简单,下载hbase-0.20.2.tar.gz, 解压到预设目录即可。我的目录:/home/frank/HBaseInstall/

    解压完成后建立链接(好处就不多说了):$ ln -s hbase-0.20.2 hbase

 

配置(以下是按照集群的方式配置的,单机的配置可参考网上资料)

 

1、修改conf/hbase-env.sh

export JAVA_HOME=/home/frank/JavaInstall/jdk

export HBASE_CLASSPATH=/home/frank/HadoopInstall/hadoop/conf

export HBASE_MANAGES_ZK=false

 

2、修改hbase-site.xml,增加以下内容

<property>

    <name>hbase.rootdir</name>

    <value>hdfs://frank-1:9000/hbase</value>

</property>

<property>

    <name>hbase.cluster.distributed</name>

    <value>true</value>

</property>

    <property>

      <name>hbase.zookeeper.property.clientPort</name>

      <value>2222</value>

      <description>Property from ZooKeeper's config zoo.cfg.

      The port at which the clients will connect.

      </description>

    </property>

其中:

 

hbase.rootdir:“hdfs://frank-1:9000”这部分必须和hadoop-config/core-site.xml中的fs.default.name保持一致;

hbase.zookeeper.property.clientPort,是由于我在zoo.cfg中修改了默认的clientPort,所以在这里要设置,缺省是2181

 


3、把/home/frank/HadoopInstall/hadoop-config/hdfs-site.xml文件拷贝至hbase的conf文件夹下

 

4、把${ZOOKEEPER_HOME}/conf/zoo.cfg拷贝至hbase的conf文件夹下

 

5、在conf/regionservers中添加hadoop-config/conf/slaves中所有的datanode节点。

 

6、删除/hbase-0.90.2/lib/hadoop-core-0.20-append-r1056497.jar

     拷贝/hadoop-0.20.2/hadoop-0.20.0-core.jar到/hbase-0.90.2/lib/

 

7、最后,把配置好的hbase-0.20.2,拷贝到其它节点 scp

 

运行

 

Hadoop、ZooKeeper和HBase之间应该按照顺序启动和关闭:启动Hadoop—>启动ZooKeeper集群—>启动HBase—>停止HBase—>停止ZooKeeper集群—>停止Hadoop。

执行bin/start-hbase.sh和bin/stop-hbase.sh 脚本启动和停止HBase服务。

 

测试

 

可进入hbase shell,测试:


list  列出所有表

create 建表,如 create 'test','data'

put 插入数据

...(关于hbase的操作可参考网上资料)

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值