Zookeeper的崩溃恢复问题

背景

UDDB(UCloud分布式数据库)产品的测试环境中有一个zk集群, 三节点。 某一天其中一个zk节点所在云主机崩溃了,无法启动。只好重装系统盘。 

zk的执行码在系统盘上。为此重新安装了zk软件。 apt-get install zookeeper 即可。

zk的配置文件(zoo.cfg),三节点都是一样的, 从其他zk节点拷贝一份过来即可。

zk存储的数据在数据盘上。根据zk的崩溃恢复机制, 存储的老数据可以删除,在zk重启后由其他zk节点再同步过来即可。

因此,从开始到结束, 执行了以下操作:

1. apt-get install zookeeper

2. 修改/etc/hosts , 配置ip 和zoo.cfg中主机名的对应关系:

zoo.cfg中的配置是:

server.1=10-10-182-162:2888:3888
server.2=10-10-150-34:2888:3888
server.3=10-10-149-63:2888:3888

于是在/etc/hosts增加:

10.10.182.162   10-10-182-162
10.10.150.34    10-10-150-34
10.10.149.63    10-10-149-63

3.删除了zk的老数据:

rm -rf /data/zookeeper/version-2

但保持/data/zookeeper/myid 这个文件不变(用来存储这个zk节点的id)。

4.启动zk:

cd /usr/share/zookeeper/bin

bash zkServer.sh stop 

bash zkServer.sh start

zk进程能够成功启动,但是启动后用zkCli.sh 登陆,无法 ls /:

查看/var/log/zookeeper/zookeeper.log, 有以下报错:

查看网上资料,指出该问题原因大多为新启动的zk节点无法加入到集群中。但是为何无法加入,原因各异,又始终无法和我这个问题匹配起来。

分析

带着这个问题,查看了另外2个zk节点的日志,其中有:

 

注意到红框中的日志。从该日志看, 像是底层网络就出现异常了。为何会出现异常? 我lsof -p 三个zk进程,发现第一个崩溃重启后的进程,其3888端口竟然是:

是绑定了localhost端口。 

再看下 /etc/hosts 发现之前的配置是有问题的:

在增加:

10.10.182.162   10-10-182-162
10.10.150.34    10-10-150-34
10.10.149.63    10-10-149-63

时,忘记删除 127.0.0.1       10-10-182-162 这个配置项。导致10-10-182-162这个主机名,依然解析到127.0.0.1。

解决

把该配置项删除,然后重启zk节点,问题得到解决, 通过zkÇli.sh  执行: ls /  没有问题。

 

总结

1.zk节点崩溃后重启,不需要先同步数据(直接把之前老的数据删除即可),在zk重启后,将从其他zk节点自动同步数据;

2.配置时一定要仔细,查问题时多看日志多用心分析。

展开阅读全文

没有更多推荐了,返回首页