idea项目本地运行执行命令
[root@WSWS1 spark-2.4.5-bin-hadoop2.7]# bin/spark-submit \
> --class com.huijie.bigdata.spark.WorldCount \
> WordCount-jar-with-dependencies.jar
java.lang.ClassNotFoundException: com.huijie.bigdata.spark.WorldCount
at java.net.URLClassLoader.findClass(URLClassLoader.java:381)
at java.lang.ClassLoader.loadClass(ClassLoader.java:424)
at java.lang.ClassLoader.loadClass(ClassLoader.java:357)
at java.lang.Class.forName0(Native Method)
at java.lang.Class.forName(Class.java:348)
at org.apache.spark.util.Utils$.classForName(Utils.scala:238)
at org.apache.spark.deploy.SparkSubmit.org$apache$spark$deploy$SparkSubmit$$runMain(SparkSubmit.scala:806)
idea上运行项目时候一切正常,打包成功。但是spark上运行就报错。
最底下那个蓝色文件夹是我打包的项目在spark上的位置
大家帮我找找错,谢谢大家了。