如图所示,提交的spark在yarn上由于内存问题导致被yarn killed掉,由于是spark任务,因此修改yarn-site.xml中的map和reduce的配置无效
问题的解决方案在用spark时设置内存配置例如:
spark.memory.offHeap.enabled true
spark.executor.memoryOverhead 5g
spark.memory.offHeap.size 4g
spark.driver.memory 4g
spark.executor.memory 4g