Task failed to report status for 1200 seconds. Killing!老碰到这种问题怎么解

这个问题比较恶心,五一期间我调试了半天,包括将hadoop集群的timeout时间设置为超大,结果还是报下面的错
Task attempt_201705011003_0043_m_000094_0 failed to report status for 1200 seconds. Killing!
后来尝试了python的性能分析工具,去查找每行的性能,结果发现最耗时的是全角转半角和半角转全角函数,把这两行注释掉,再跑,还是报上面的那个错,服了
 
最后的解决方法也是最搞笑的方法,那就是在处理每行数据时,如果length($line)超过20000,就跳过。
再重新跑job,成功
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值