引言
接着上一篇Hadoop集群搭建,继续搭建ZooKeeper和HBase集群。
ZooKeeper搭建
安装
去官网下载stable版本(在Master服务器上)
cd /usr/localhost
sudo wget http://apache.fayea.com/zookeeper/zookeeper-3.4.9/zookeeper-3.4.9.tar.gz
sudo tar zxf zookeeper-3.4.9.tar.gz
sudo mv zookeeper-3.4.9 zookeeper
sudo chown hadoop.hadoop zookeeper -R
配置
配置环境变量
sudo vim /etc/profile
export ZOOKEEPER_HOME=/usr/local/zookeeper
export PATH=$PATH:/usr/local/zookeeper/bin
在命令行输入. /etc/profile
并回车使其生效
到zookeeper配置目录,把zoo_sample.cfg
重命名,并配置
cd zookeeper/conf
mv zoo_sample.cfg zoo.cfg
vim zoo.cfg
dataDir=/usr/local/zookeeper/tmp
server.1=Slave1:2888:3888
server.2=Slave2:2888:3888
server.3=Slave3:2888:3888
把已配置好的zookeeper复制到三台Slave服务器上,具体可以参照上一篇中有关打包hadoop目录,发送给三台Slave服务器
操作。
分别在三台Slave服务器/usr/local/zookeeper/tmp
目录下,新建文件myid,然后分别写入1、2、3,如Slave1服务器上,如下操作(zoo.cfg中server对应的id)
cd /usr/local/zookeeper/tmp
echo 1 > myid
在三台Slave服务器上开启zookeeper服务
zkServer.sh start
在命令行使用jps命令后,会发现多出了个QuorumPeerMain
进程,查看zookeeper状态,会发现两个follow一个leader
[hadoop@Slave1 lib]$ zkServer.sh status
ZooKeeper JMX enabled by default
Using config: /usr/local/zookeeper/bin/../conf/zoo.cfg
Mode: follower
[hadoop@Slave2 conf]$ zkServer.sh status
ZooKeeper JMX enabled by default
Using config: /usr/local/zookeeper/bin/../conf/zoo.cfg
Mode: leader
[hadoop@Slave3 lib]$ zkServer.sh status
ZooKeeper JMX enabled by default
Using config: /usr/local/zookeeper/bin/../conf/zoo.cfg
Mode: follower
HBase集群搭建
安装
去官网下载stable版本(在Master服务器上)
cd /usr/localhost
sudo wget http://apache.fayea.com/hbase/1.2.3/hbase-1.2.3-bin.tar.gz
sudo tar zxf hbase-1.2.3-bin.tar.gz
sudo mv hbase-1.2.3-bin.tar.gz hbase
sudo chown hadoop.hadoop hbase -R
配置
/etc/profile
export HBASE_HOME=/usr/local/hbase
export PATH=$PATH:/usr/local/hbase/bin
在命令行输入. /etc/profile
并回车使其生效
regionservers
Slave1
Slave2
Slave3
hbase-env.sh
export JAVA_HOME='/usr/lib/jvm/java-1.8.0-openjdk.x86_64'
# 因为上面已经部署独立的ZooKeeper,所以可以不用HBase自带的ZooKeeper
export HBASE_MANAGES_ZK=false
hbase-site.xml
<configuration>
<property>
<name>hbase.rootdir</name>
<value>hdfs://Master:9000/hbase</value>
</property>
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<property>
<name>hbase.zookeeper.quorum</name>
<value>Slave1,Slave2,Slave3</value>
</property>
<property>
<name>hbase.zookeeper.property.dataDir</name>
<value>/usr/local/zookeeper/tmp</value>
</property>
</configuration>
把已配置好的hbase复制到三台Slave服务器上,具体可以参照上一篇中有关打包hadoop目录,发送给三台Slave服务器
操作。
开启hbase服务
start-hbase.sh
分表在四台服务器上运行jps命令
[hadoop@Master bin]$ jps
6929 ResourceManager
6769 SecondaryNameNode
14553 HMaster
6572 NameNode
14669 Jps
7214 JobHistoryServer
[hadoop@Slave1 lib]$ jps
7743 Jps
7635 HRegionServer
17312 DataNode
17581 QuorumPeerMain
17426 NodeManager
[hadoop@Slave2 lib]$ jps
4866 NodeManager
4755 DataNode
9220 Jps
9110 HRegionServer
5032 QuorumPeerMain
[hadoop@Slave3 Asia]$ jps
6785 Jps
6675 HRegionServer
2421 DataNode
2669 QuorumPeerMain
2526 NodeManager
遇到的坑
Master服务器上HMaster进程启动后不就就没了,其他三台Slave服务器上的HRegionServer也没有了,解决方法,同步时间,四台服务器时间一致;还是没有HMaster进程,把hbase-site.xml
中的hbase.rootdir
的Master
改为IP
<configuration>
<property>
<name>hbase.rootdir</name>
<value>hdfs://10.254.21.30:9000/hbase</value>
</property>
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<property>
<name>hbase.zookeeper.quorum</name>
<value>Slave1,Slave2,Slave3</value>
</property>
<property>
<name>hbase.zookeeper.property.dataDir</name>
<value>/usr/local/zookeeper/tmp</value>
</property>
</configuration>
若还是不成,把/usr/local/hbase/lib
中的hadoop-*.jar删除,把hadoop中的jar包放入,再启动
find /usr/local/hadoop/share/hadoop -name "hadoop*jar" | xargs -i cp {} .
参考资料
Apache HBase ™ Reference Guide
HBase+ZooKeeper+Hadoop2.6.0的ResourceManager HA集群高可用配置
Hadoop+HBase+ZooKeeper三者关系与安装配置