搭建好spark后,启动hadoop集群失败,只有jps 和Master进程
错误详情:
解决方法:
1.杀掉master进程
kill 1388
. 再次启动集群即可
start-all.sh
这是我第一次碰到这个问题,然后用这个方法能够解决,但后来在碰到又报其他错误
比如,我kill掉那个进程后,它又报我另外2台节点的spark在运行,开不了。
然后我就去另外2台节点那关掉了spark(去到spark的安装路径下的sbin里执行stop-all.sh)
最后到主节点那执行
start-dfs.sh
start-yarn.sh
jps
发现又可以了