hbase完全分布式安装配置

环境:
CentOS 6.5, Hadoop 1.1.2, zookeeper 3.4.4, Hbase 0.94.7-security, JDK 1.7

机器规划:
192.168.190.100
hostname:vm1
role:HMaster

192.168.190.101
hostname:vm2
role:HRegionServer

192.168.190.102
hostname:vm3
role:HRegionServer


前提:需要安装好haoop完全分布式环境,如果用外部安装的zookeeper, 还需要安装好zookeeper集群
请查看以下博客进行安装
1. hadoop完全分布式安装配置

2. zookeeper集群安装配置


hbase需要与之匹配的hadoop版本,以下是匹配矩阵图:




一、配置hosts
#确保设计的主机名均可以解析为ip

具体操作,请查看博客 Centos IP、DNS设置



二、下载及解压hbase安装包
1. 可从此链接下载 http://download.csdn.net/detail/calvin_kui/8626233

2. 解压安装包 tar xzvf Hbase 0.94.7-security.tar.gz

三、修改conf/hbase-env.sh脚本,设置环境变量
1. vi <HBASE_HOME>/conf/hbase-env.sh

2. 修改以下内容
export JAVA_HOME=<JAVA_HOME>
export HBASE_CLASSPATH=<HADOOP_HOME>/conf #此处为hadoop/conf目录
export HBASE_MANAGES_ZK=true  #使用hbase自带的ZooKeeper, 此项配置上
export HBASE_MANAGES_ZK=false #使用外部安装的ZooKeeper, 此项配置上


四、修改hbase-site.xml文件
1. vi <HBASE_HOME>/conf/hbase-site.xml

2. 增加以下内容:
<configuration>
  <property>   
    <name>hbase.rootdir</name>  
    <value>hdfs://vm1:9000/user/hadoop/hbase/data</value>    
    <!-- 此项为hadoop/conf/core-site.xml文件中fs.default.name属性值+目录名称 -->
  </property>   
  <property>  
    <name>hbase.cluster.distributed</name>    
    <value>true</value>   
  </property>    
  <property>    
    <name>hbase.master</name>    
    <value>vm1:60000</value>    
  </property> 
  <property>    
    <name>hbase.zookeeper.quorum</name>    
    <value>vm1,vm2,vm3</value>  
    <!-- 使用hbase自带的ZooKeeper,此项只需要配置vm1即可 -->
  </property>  
  <property>    
    <name>hbase.tmp.dir</name>    
    <value>/usr/hadoop/local/hbase/tmp</value>  
  </property>  
  <property>    
    <name>hbase.zookeeper.property.dataDir</name>    
    <value>/usr/hadoop/local/zookeeper/tmp</value>  
  </property>  
</configuration>


五、修改regionservers文件
1. 增加部署HRegionServer机器的主机名:
vm2
vm3


六、覆盖HBase中hadoop核心jar包 
mv <HBASE_HOME>/hadoop-core-1.0.4.jar <HBASE_HOME>/hadoop-core-1.0.4.jar.bak
cp <HADOOP_HOME>/hadoop-core-1.1.2.jar <HBASE_HOME>/lib/


七、复制hbase目录到其它机器
1. scp -r hbase hadoop@vm1:/usr/hadoop/local
2. scp -r hbase hadoop@vm2:/usr/hadoop/local


八、启动Hbase集群
1. 启动hadoop集群 (在vm1上执行命令 start-all.sh)
2. 启动zookeeper集群(分别在三台机器上执行命令 zkServer.sh  start;可以使用zkServer.sh status查看zk的状态)。
3. 启动hbase集群(在vm1上执行命令 start-hbase.sh)


九、验证Hbase集群是否启动
1. jps 查看运行进程

2. web监控 http://vm1:60010


  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值