早上打开服务器,程序报的这个异常,一开始以为是sparksql解析问题,后来发现原因为最下方的没有存储空间了。
df -m 或 df -h
空间不足。通过
du -sh *
查看当前文件夹所占空间。然后发现spark standalone模式时,work下的日志太多,然后配置work自动清理模式。
参考:https://blog.csdn.net/u010820702/article/details/79566223
http://spark.apache.org/docs/1.5.2/spark-standalone.html