问题
启动spark standalone cluster的时候:/usr/local/spark/sbin/start-all.sh
,显示以下错误:
![在这里插入图片描述](https://img-blog.csdnimg.cn/2019031410594694.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3llemlhbmQwMQ==,size_16,color_FFFFFF,t_70)
原因
只顾着启动spark的start-all.sh了,忘了启动hadoop集群。导致hadoop相应进程没有开启,通过jps查看没有namenode进程。
解决方案
- 先启动hadoop集群:
start-all.sh
![在这里插入图片描述](https://img-blog.csdnimg.cn/20190314110359884.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3llemlhbmQwMQ==,size_16,color_FFFFFF,t_70)
- jps命令,确认有namenode进程
![在这里插入图片描述](https://img-blog.csdnimg.cn/2019031411052577.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3llemlhbmQwMQ==,size_16,color_FFFFFF,t_70)
- 再启动spark:
/usr/local/spark/sbin/start-all.sh
![在这里插入图片描述](https://img-blog.csdnimg.cn/20190314110737623.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3llemlhbmQwMQ==,size_16,color_FFFFFF,t_70)
- 成功运行