记录一次的spark-submit报错: scheduler.ShuffleMapStage: ShuffleMapStage 0 is now unavailable on executor
必须要记录一次的spark-submit报错spark任务若出现由于内存不足导致任务失败的情况:一:大多数情况想的是可能 因为shuffle过程太耗内存,导致executor执行不成功,所以增大executor-memory的大小和core的数量二、也要记住,虽然你申请了很大的内存,但是可能集群资源并没有那么多:即你在提交spark任务时的contanier的内存总大小(每个excutor个数乘上每个excutor的内存),超过了在 ambari YARN中配置的container的总大小。一





