最近刚学Spark,碰见个小问题,在运行start-all.sh和start-history-server.sh后,jps里没有出现master和worker
配置文件如下
slaves
spark-env.sh
spark-defaults.conf
经过查资料得知
原来我为图省事将spark环境变量后认为可以直接用start-all.sh命令启动spark,从而和hadoop命令所冲突
解决方法就是一定要从sbin目录下启动start-all.sh.命令,并附上命令注释
最近刚学Spark,碰见个小问题,在运行start-all.sh和start-history-server.sh后,jps里没有出现master和worker
配置文件如下
slaves
spark-env.sh
spark-defaults.conf
经过查资料得知
原来我为图省事将spark环境变量后认为可以直接用start-all.sh命令启动spark,从而和hadoop命令所冲突
解决方法就是一定要从sbin目录下启动start-all.sh.命令,并附上命令注释