- 博客(1)
- 收藏
- 关注
原创 Spark故障排除
使用spark有一段时间了,期间遇到了不少问题,诸如out of memory,java.io.IOException: Filesystem closed,task任务过多导致性能低下等等。现一一列举如下,并给出解决方案。1. 内存问题,heap error,java.lang.OutOfMemoryError: PermGen spacespark的作业节点有driver和execut
2015-04-13 09:34:21 3204
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人