问题
启动spark standalone cluster的时候:/usr/local/spark/sbin/start-all.sh
,显示以下错误:
原因
只顾着启动spark的start-all.sh了,忘了启动hadoop集群。导致hadoop相应进程没有开启,通过jps查看没有namenode进程。
解决方案
- 先启动hadoop集群:
start-all.sh
- jps命令,确认有namenode进程
- 再启动spark:
/usr/local/spark/sbin/start-all.sh
- 成功运行