api文档数据量太大崩溃_Spark执行错误-->数据量大时导致yarn崩溃

一、问题现象说明:

1, IQL在执行数据量超过1亿条数据的时候,执行不出来结果

2, 在执行超过四秒以后Yarn的node节点开始出问题

3,关闭执行以后查看CPU、内存 资源没有被占满

二、分析问题思路:

1, 通过 client 模式 将数据打印的日志展现出来,并重定向到本地保存日志

2,查看日志中的内容分析Error 如下:

ERROR TransportRequestHandler: Error sending result StreamResponse{streamId=/jars/iql-engine.jar, byteCount=145685437, body=FileSegmentManagedBuffer{file=/home/app/iqlEngine/iql-engine.jar, offset=0, length=145685437}} to /79.12.72.8:6862; closing connection

java.io.IOException: Connection reset by peer

该ERROR是报连接错误,有些错误信息可能是之前的问题导致的后果,所以继续往前查看信息

3,查看前面的WARN信息如下:

WARN YarnSchedulerBackend$YarnSchedulerEndpoint: Requesting driver to remove executor 22 for reason Container marked as failed: container_1555493438863_1260_01_000023 on    host: centos5. Exit status: 1. Diagno

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值