搭建Zookeeper与Hbase过程及遇到的问题总结

本文详细介绍了Zookeeper和Hbase的安装步骤,包括配置zookeeper的zoo.cfg,创建myid文件,设置HBASE_MANAGES_ZK和HBASE_PID_DIR等。在启动和测试过程中,提到了正确的启动顺序以及通过HTTP接口检查Hbase状态。同时,针对zookeeper启动失败、Hbase Master未运行和Hadoop数据目录权限问题提供了解决方案,强调了查看日志对于快速定位错误的重要性。
摘要由CSDN通过智能技术生成

我的经验是最好放在hadoop一块,这样可以做个全盘拷贝与管理。比如之前安装的hadoop在/usr/hadoop目录下,那就把这2个组件放在一 块,比如统一放在:/usr/hadoop/...或 /home/hadoop/...这样以后再有组件也可以放在这里,方便了后续集群的重新部署。为了避开混淆,可以不使用hadoop,如使 用:hdfs,bigdata, cloud,and so on.

1.安装zookeeper,自不必说,需要说明的是配置问题。

 (1)在conf目录下,将 zoo_sample.cfg 改名为 zoo.cfg,修改为如下内容:

?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
# The number of milliseconds of each tick
tickTime= 2000
# The number of ticks that the initial
# synchronization phase can take
initLimit= 10
# The number of ticks that can pass between
# sending a request and getting an acknowledgement
syncLimit= 5
# the directory where the snapshot is stored.
dataDir=/home/hdfs/zookeeper
# the port at which the clients will connect
clientPort= 2181
initLimit= 5
syncLimit= 2
dataLogDir=/home/hdfs/zookeeper/logs
server. 1 = 192.168 . 1.70 : 2888 : 3888
server. 2 = 192.168 . 1.71 : 2888 : 3888
server. 3 = 192.168 . 1.72 : 2888 : 3888
server. 4 = 192.168 . 1.73 : 2888 : 3888
(2)创建myid文件与logs目录 

 

1) myid文件是在zookeeper_home下直接新建一个myid文件,并在里面写入编号。编号的确定是根据zoo.cfg里 自己ip对应的 server.X 

2)logs目录也是自己手动创建的。

2.安装hbase

解压安装后,修改conf 里的配置文件:

(1) hbase-env.sh

 

?
1
2
3
4
5
6
7
export JAVA_HOME=/usr/java/jdk1. 7 .0_17/
export HBASE_CLASSPATH=/usr/hadoop/conf
export HBASE_OPTS= "$HBASE_OPTS -XX:+HeapDumpOnOutOfMemoryError -XX:+UseConcMarkSweepGC -XX:+CMSIncrementalMode"
#export HBASE_OPTS= "-ea -XX:+UseConcMarkSweepGC -XX:+CMSIncrementalMode"
export HBASE_MANAGES_ZK= false
 
export HBASE_PID_DIR=/home/hdfs/pids  #目录应该为hadoop:hadoop所有,以免发生权限问题

 

要注意的是:   HBASE_MANAGES_ZK 和 HBASE_PID_DIR

 

(2)hbase-site.xml
?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
<?xml version= "1.0" ?>
<?xml-stylesheet type= "text/xsl" href= "configuration.xsl" ?>
<configuration>
     <property>
         <name>hbase.rootdir</name>
         <value>hdfs: //Master.Hadoop:9000/hbase</value>
     </property>
     <property>
         <name>hbase.cluster.distributed</name>
         <value> true </value>
     </property>
     <property>
         <name>hbase.master</name>
         <value> 192.168 . 1.70 : 60000 </value>
     </property>
     <property>
         <name>hbase.zookeeper.quorum</name>
         <value> 192.168 . 1.71 , 192.168 . 1.72 , 192.168 . 1.73 </value>
     </property>
     <!-- End of properties that are directly mapped from ZooKeeper's zoo.cfg -->
</configuration>

(3)regionservers

在regionservers添加slaves的ip:

?
1
2
3
192.168 . 1.71
192.168 . 1.72
192.168 . 1.73

3.启动/测试

启动顺序:hadoop-->zookeeper-->hbase

关闭顺序:hbase-->zookeeper-->hadoop

1)启动zookeeper

zookeeper的启动需要分别在每个计算机的节点上手动启动。进入zookeeper/bin目录: 

?
1
2
3
4
5
6
7
8
9
10
11
[... bin]$ ./zkServer.sh start
[... bin]$ jps
#启动成功应该含有:QuorumPeerMain 进程
 
查看状态:(已全部手动启动集群中的zookeeper)
[... bin]$ ./zkServer.sh status
......
#会显示 Model:follower/leader
 
关闭zookeeper
[... bin]$ ./zkServer.sh stop

2)启动hbase

在hbase的bin下进行操作:(注意顺序)

?
1
2
3
4
5
6
7
[... bin]$ ./hbase-daemon.sh start master //启动Master
[... bin]$ ./start-hbase.sh
[... bin]$ ./hbase shell //shell命令行接口,进入后可使用list显示tables
……
 
[... bin]$ ./hbase-daemon.sh stop master //启动Master
[... bin]$ ./stop-hbase.sh

可以通过:http://192.168.1.70:60010/master-status 查看hbase允许状态,也可通过其判断是否成功启动。

4.错误解决及排除

(1)zookeeper遇到的问题:

1)Error contactiong service. It is probably not runnin

查看zookeeper状态时出现:Error contactiong service. It is probably not running

先使用jps查看是否有QuorumPeerMain;

再查看2181端口是否开启:   netstat -an | grep 2181 

如果这2项都没有问题,原因可能是你只是单机启动,集群中其他计算机并没有启动zookeeper,把集群中其他的启动后再使用此命令。而且此命令功能太过单一,反馈信息也不准确。 

 

(2)Hbase遇到的问题

ERROR: org.apache.hadoop.hbase.MasterNotRunningException: Retried 7 times

问题发生在list 查看表时,通过查看 logs/ 下的日子信息:

stopping hbasecat: /tmp/hbase-mango-master.pid: No such file or directory  

发现是HBASE_PID_DIR 没有配置,使用的是默认配置,但是默认配置会在下次启动后自动清除,所以需要手动配置并创建相应的文件。(参考:hbase-env.sh)  

(3)hadoop遇到的问题

All directories in dfs.data.dir are invalid

这个问题以前没有遇到过,而且在之前节点启动正常,但这次不知道是何原因。

通过:hadoop dfsadmin -report 发现一个节点没有启动,通过查看此节点的logs信息,发现是文件权限引起的:Invalid directory in dfs.data.dir: Incorrect permission for /hadoop/hadoop-data, expected: rwxr-xr-x, while actual: rwxrwxr-x 

更改权限,文件解决:chmod g-w /hadoop/hadoop-data/    (其他节点权限和以前一样却没有出现这问题,好奇怪~~)

Ps:最有效、快速定位错误的方法是看logs,千万不要忽视了哦! 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值