Hadoop拾遗——subprocess still running it ran on unusable node Broken pipe at PipeReducer.reduce

博客讲述了在Hadoop MapReduce任务中遇到的问题,具体表现为subprocess仍在运行,导致任务在不可用节点上失败。错误信息包括'Broken pipe'异常。问题定位为字符串类型数据编码、内存不足和Pipe流数据未完全消耗。解决方案包括对字符串进行UTF-8编码、增加reducer内存以及确保完全消耗Pipe流中的数据。作者提供了错误版本与修正后的代码示例。
摘要由CSDN通过智能技术生成

Status : FAILED TaskAttempt killed because it ran on unusable node n31-165-194.byted.org:8052 (LOST) Container released on a lost node

Error: java.io.IOException: subprocess still running R/W/S=11753/10001/0 in:NA [rec/s] out:NA [rec/s] minRecWrittenToEnableSkip_=9223372036854775807 HOST=null USER=xxx HADOOP_USER=null last tool output

Broken pipe at org.apache.hadoop.streaming.PipeReducer.reduce(PipeReducer.java:129) at org.apache.hadoop.mapred.ReduceTask.runOldReducer(ReduceTask.java:490) at org.apache.hadoop.mapred.ReduceTask.run(ReduceTask.java:434) at org.apache.hadoop.mapred.YarnChild$2.run(YarnChild.java:165) at java.security.AccessController.doPrivileged(Native Method) at javax.security.auth.Subject.doAs(Subject.java:422) at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1709) at org.apache.hadoop.mapred.YarnChild.main(YarnChild.java:160)

问题定位:

字符串类型数据编码、内存及Pipe流数据未消耗完毕

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值