影响Hadoop集群稳定性后续

由于目前处理的数据量还未称的上大规模,但每个节点的压力都不小,真是稳定压倒一切呀。

在系统的作业过程中,不仅仅是关注磁盘使用量,CPU,Load,以及IOWait等指标,更重要的是深入到进程内部,来发现潜在的问题。近期一直在关注Hadoop系统的运行,我把dfshealth.jsp 的web管理页面加了一个新的指标,就是每个Node的Xceiver Count,该参数表示当前Node有多少线程数在服务w/r;另外一个很有用的指标就是每个Node的Last Contact,这个心跳包的最后更新时间一般超过3时你就得留意着是不是还会继续增长,如果持续走高,那你就得花点时间来care一下这台node各方面的压力。

Last Contact增高是各个Node出现问题的前兆,所以得相当注意,以前我曾记录过方面的问题:[url]http://dongyajun.iteye.com/blog/627905[/url], 后来我最终还是放弃hadoop的shell实现,改用本地脚本运行的方式,把磁盘的使用量等信息输出到临时文件中,供hadoop读取,不过这个问题并没有因此得到完全解决。

1. Node收到删除大量block的命令,请参见:[url]https://issues.apache.org/jira/browse/HDFS-611[/url], 升级到0.21.0版本会解决
2. Node report block给NN,这个长长也会花较长时间,如果你节点的Block够多,一般在30w+时,要花30秒左右时间,甚至更多。(默认一个小时报告一次),其实report block是不应该放到DN的 offerService中执行的,这个在0.21.0在始终未解决。
3. 在reprt block 之前,首先要从FSDataset中,获取该Node所有block列表,这个操作将花大量的时间,有时甚至要250秒甚至更多。此操作加上之后的report block方法调用,已经花了近300秒时间了。

Node长时间不发送心跳给NN产生的问题并不仅仅是该Node无冤的沦为dead node,更重要的是对客户端put的影响,虽然这种现象不会同时发生在put操作时的那几台Node上,但由于压力等诸多因素,仍然会导致Node无法正常把刚写完的block报告给NN,如果该block未报告给NN,客户端则不能成功申请新的block,如果该block是客户端最后升请的block,客户端关闭文件时就会报 Could not complete file *** retrying...异常。

解决方案:
1. DN的offerservice 中,把block report 放到单独线程中运行。
心跳和block report异步来做,对于0.21.0以下版本仍然有问题,当block report从FSDataset获取block info时,会对FSDataset类实例持有锁,由于这个操作花大量时间,会导致心跳在调用getCapacity时,被无情的BLOCKED,Last Contact仍然会增高。
"DataNode: [/sd01/hadoop/data/, …]" daemon prio=10 tid=0x08b1b800 nid=0x4cdd waiting for monitor entry [0x6df25000..0x6df25e30]
java.lang.Thread.State: BLOCKED (on object monitor)
at org.apache.hadoop.hdfs.server.datanode.FSDataset$FSVolumeSet.getCapacity(FSDataset.java:557)
- waiting to lock <0x74faca20> (a org.apache.hadoop.hdfs.server.datanode.FSDataset$FSVolumeSet)
at org.apache.hadoop.hdfs.server.datanode.FSDataset.getCapacity(FSDataset.java:755)
at org.apache.hadoop.hdfs.server.datanode.DataNode.offerService(DataNode.java:713)
at org.apache.hadoop.hdfs.server.datanode.DataNode.run(DataNode.java:1297)
at java.lang.Thread.run(Thread.java:619)

Locked ownable synchronizers:
- None

2. 如果使用的低版本Hadoop,在FSDataset中,引入:
//Used for synchronizing access to usage stats
private Object statsLock = new Object();

去掉FSDataset#getCapacity, #getRemaining 等方法的synchronized,改为:
/**
* Return the total space used by dfs datanode
*/
public long getDfsUsed() throws IOException {
synchronized(statsLock) {
return volumes.getDfsUsed();
}
}

/**
* Return total capacity, used and unused
*/
public long getCapacity() throws IOException {
synchronized(statsLock) {
return volumes.getCapacity();
}
}

/**
* Return how many bytes can still be stored in the FSDataset
*/
public long getRemaining() throws IOException {
synchronized(statsLock) {
return volumes.getRemaining();
}
}
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值