这种平时没事儿,然后突然出现的问题,肯定是spark集群的资源被其他sparkcontext占用,但是还没释放的。 所以解决方案简单粗暴: 直接重启spark集群(重启的时候也就是释放了集群资源),然后执行当前任务即可。