之前出现这个错的时候,在网上google了好久,没解决,后来看到有人说在worker的root用户下的 .bashrc下引入JAVA_HOME的路径,也有大佬说需要在/spark/sbin/spark-config.sh 加入JAVA_HOME的路径,我在/spark/sbin/spark-config.sh里加入JAVA_HOME的路径后,在运行就不报错了,可供参考
除了这个说法以外,还有大佬说这是Apache Spark轮询几秒钟,以反复检查主服务器是否成功启动。 如果你的系统负载很重,可能会显示此消息,但这通常意味着检查在主启动完成之前完成了轮询以确保成功。你可以检查主日志,或发出ps命令并查找主进程以明确查看主服务器是否已成功启动。
那除了这些说法之外,我也得出一个结论,通常第二遍运行的时候就不出错了,所以综合大佬们的说法,这个应该不是一个比较严重的问题。这个错误的大概说法就这些,希望能帮到你。