hbase 查看进程_HBase排查HMaster无法成为Active异常分析

转载自:https://blog.csdn.net/weixin_26945061/article/details/113451692

故障描述
1.1发生背景

很久很久以前,有一天,我在HBase中新建了一张表 “XXX: XXX _EXCEPTION_LIST_INFO”,同时HBase在处理大量更新操作。然后在DROP掉表XXX: XXX_EXCEPTION_LIST_INFO时,HBase Master就宕机。

之后通过CM重新启动后HBase服务,服务重启后发生如下两个错误,导致HBase集群无法正常恢复:(1)HMaster节点自动Active失败;(2)大量Region出现offline和RIT。

c4d80da25f8594177eb89eb69c56e96f.png

 

1.2现象描述

HA HMaster节点启动了,过一段时间Active HBase Master节点自动失败(大概3~5分钟)。因为集群采用了HA高可用,因此Standby HBase Master节点自动切换为Active。再过差不多相同时间,该节点也自动失败。

查看Master节点的日志报错如下

Failed to become active master java.io.IOException: Timedout 300000ms waiting for namespace table to be assigned

707669d218677d585bff782af25581cf.png
Master Web UI上显示处于RIT的Region

 e9cffb528350552911e82f16102e114e.png

 

Master状态页告警信息:

Found regions staying in transition state for a duration longer than the configured threshold in HBase.

24298cef7ca8e5eb10650955e52e6110.png
故障分析处理
1.Master的日志报错:Timeout 300000ms waiting for namespace table to be assigned.表示namespace表未分配,并且超过设置的时间阈值。在HBase的设计中,Master启动时首先分配meta表,然后再分配其它表。系统表hbase:namespace和其它用户表分配时同等对待,并没有先分配系统表再分配用户表,如果一个集群region非常多,默认300000ms(5分钟)还分配不到namespace表,此时需要修改hbase.master.namespace.init.timeout超时时间。

 

2.根据此时情况,通过CM在“hbase-site.xml的HBase服务高级配置代码段(安全阀)”中增加以下配置:

<property>
    <name>hbase.master.namespace.init.timeoutname>
    <value>86400000</value>
</property>

<property>
    <name>hbase.master.initializationmonitor.timeout</name>
    <value>86400000</value>
</property>


即增加namespace表分配超时时间为1天。

dce2a2d1345cf67eb5053434dbb0d98e.png

 

修改完成之后重启HBase服务,这里选择滚动重启HBase时RegionServer无法重启,所以选择完成重启HBase服务。

3.重启完成后,Master依然告警:Found regions staying in transition state for a duration longer than the configured threshold in HBase.,但服务并未宕掉,Master告警提示的原因是在HBase Master启动时,检测到有Region长时间处于RIT状态(超过阈值)。

264f4fd88c72862b192e055dad426bc0.png

 

查看Master日志如下:

e2a680e0bbc3f9d68b12fdac5dc35ce2.png

 

大量Region处于PENDING_OPEN状态,Master检测到RIT,

查看Zookeeper中的/hbase/region-in-transition,也可以看到大量的Region。

f66b234e250723b4dcc6ebe9319c477e.png

 

说明:每次HBase Master对Region的一个OPEN或一个CLOSE操作都会向Master 的RIT列表中插入一条记录,因为Master对Region的操作要保持原子性。Region的 OPEN和 CLOSE是通过HBase Master和 RegionServer 协助来完成的。为了满足这些操作的协调、回滚、一致性,HBase Master采用了 RIT 机制并结合Zookeeper 中znode状态来保证操作的安全和一致性。

Region有以下几种状态:

  1. OFFLINE:region is in an offline state
  2. PENDING_OPEN:sent rpc to server to open but has not begun
  3. OPENING:server has begun to open but not yet done
  4. OPEN:server opened region and updated meta
  5. PENDING_CLOSE:sent rpc to server to close but has not begun
  6. CLOSING:server has begun to close but not yet done
  7. CLOSED:server closed region and updated meta
  8. SPLITTING:server started split of a region
  9. SPLIT:server completed split of a region


在注册为active的Master Web UI上查看已上线的Region数如下:

a6975b2472b8401a7201000651fd4ff9.png

 

4.经确认HBase未使用replication后,选择重建Znode的方式进行测试:

 a.停止HBase服务

 b.使用hbase zkcli命令进入ZK客户端

 c.执行rmr /hbase清除/hbase

d.重启HBase服务,此时/hbase会重新生成

5.但是重启完之后问题依然存在,再次查看Master日志发现如下信息:

5c53469e6fb0022359f4fc23ea4803e3.png

 

6.查看RegionServer的日志,可以看到频繁出现以下错误:

547930d81299b418a2b46e87ff096a58.png

 

由上可以看出索引表的Region is not online,查看RegionServer Web UI发现RPC线程一直处于Initializing Region的Replaying edits阶段,并且在等待一个小时时间后依然未完成。因此分析原因为Phoenix索引表的Region不能online,导致数据表的Region构建进程卡住,但是这些构建进程占用了openregion线程(默认3个),导致索引表不能正常openregion,产生死锁。

因此需要调整hbase.regionserver.executor.openregion.threads参数以增加openregion线程数。

7.通过CM在“hbase-site.xml的HBase服务高级配置代码段(安全阀)”中增加以下配置:

<property>
    <name>hbase.regionserver.executor.openregion.threads</name>                    
    <value>200</value>
</property>


即增加Region分配线程数至200个,然后再次重启HBase服务

1525782ef74248a5d4f510eadfb0ad00.png

 

重启HBase服务, HBase Master仍有告警信息,但在Active Master Web UI上可以看到上线的Region数量在增加,同时RIT中的Region数量在减少。稍等片刻后HBase服务恢复正常。

869b011a63540157f301d0a6b37115f4.png

 

经测试HBase可以正常提供服务,数据无丢失。

处理结论
1.HBase Master在启动时会首先分配meta表的Region,然后再分配其它表。namespace表和user表分配时同等对待,并没有先分配系统表再分配用户表,如果一个集群Region非常多,默认300000ms(5分钟)有可能还分配不到namespace表,此时抛出异常:Failed to become active master java.io.IOException: Timedout 300000ms waiting for namespace table to be assigned。此时需要调整参数hbase.master.namespace.init.timeout增加超时时间。

2.分布式死锁发生在使用Phoenix(4.14.1)构建二级索引,并且数据表、二级索引表的Region数量适中的集群中。当RegionServer打开Phoenix数据表的一个Region时,它将为该Region执行WAL重播,并重新构建二级索引表,而数据表的Region分配依赖于二级索引表。默认情况下每个RS上只有一个线程池,包含三个openregion线程。而二级索引表和数据表共用同一个线程池。因此,当Phoenix数据表的Region的这些重建进程占用了openregion线程时,二级索引表就只能进入队列等候,其Region就不能online。这就是死锁发生的原因。

解决方式可以在hbase-site.xml中修改以下参数:

1)设置hbase.master.startup.retainassign为false(默认为true)

2)增加hbase.regionserver.executor.openregion.threads 的值(默认为3),然后重启集群解决。

如果还是出现同样问题,可以调优以下分配管理器参数,以匹配Region的数量,从而加快分配速度:

hbase.assignment.threads.max:线程池大小,默认值30

hbase.master.namespace.init.timeout:默认值300000ms

hbase.master.wait.on.regionservers.mintostart:向HMaster汇报的RegionServer的数量最小启动值,默认值1

hbase.bulk.assignment.threshold.regions:Region数量超过阈值(默认值7),使用bulk assign

hbase.bulk.assignment.threshold.servers :Server数量超过阈值(默认值3),使用bulk assign

参考链接:

https://issues.apache.org/jira/browse/PHOENIX-3072

864da4e0b9e720943a4b9cb1065b4efe.png

 

https://issues.apache.org/jira/browse/HBASE-16095

b564106088e2a3f83ccf86c0338eeb54.png

1c596f36543e1f806f35e2762f5b483e.png

 

 

https://docs.cloudera.com/documentation/enterprise/release-notes/topics/cdh_rn_phoenix_ki.html#concept_xdx_1wq_dq


 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值