Spark启动的时候出现failed to launch: nice -n 0 /soft/spark/bin/spark-class org.apache.spark.deploy.worker
不多bb,错误如图所示:
在网上搜了好多,大部分人说需要在root用户下的.bashrc配置JAVA_HOME,试过之后发现还是原来的错误;最后请教了大佬发现需要在/spark/sbin/spark-config.sh 加入JAVA_HOME的路径。 如图:
保存之后启动:
...
原创
2019-06-21 17:48:38 ·
14551 阅读 ·
8 评论