本地运行spark-scala程序出现Exception in thread "main" java.lang.NoSuchMethodError
第一次用IDEA-maven写scala文件,并在本地运行,同样的代码在eclipse中运行正常,查了一些资料,发现出现异常的原因是导入的jar包版本问题:
1.因为IDEA-maven的依赖包是直接在pom文件中添加代码,在初次使用时,很容易出现版本不一致的情况;
2.我的程序是spark-scala程序,还需要spark依赖的版本与scala匹配,比如scala2.12只适用于spark2.4以上;
更改后pom文件的代码的一部分如下:
<properties>
<project.build.sourceEncoding>UTF-8</project.build.sourceEncoding>
<maven.compiler.source>1.7</maven.compiler.source>
<maven.compiler.target>1.7</maven.compiler.target>
<scala.version>2.12.8</scala.version>
<spark.version>2.4.0</spark.version>
</properties>
<dependencies>
<dependency>
<groupId>junit</groupId>
<artifactId>junit</artifactId>
<version>4.11</version>
</dependency>
<dependency>
<groupId>org.scala-lang</groupId>
<artifactId>scala-library</artifactId>
<version>${scala.version}</version>
</dependency>
<dependency>
<groupId>org.scala-lang</groupId>
<artifactId>scala-compiler</artifactId>
<version>${scala.version}</version>
</dependency>
<dependency>
<groupId>org.scala-lang</groupId>
<artifactId>scala-reflect</artifactId>
<version>${scala.version}</version>
</dependency>
<!-- https://mvnrepository.com/artifact/org.apache.spark/spark-core -->
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-core_2.12</artifactId>
<version>${spark.version}</version>
</dependency>
<!-- https://mvnrepository.com/artifact/org.apache.spark/spark-mllib -->
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-mllib_2.12</artifactId>
<version>${spark.version}</version>
</dependency>
<!-- https://mvnrepository.com/artifact/org.apache.spark/spark-sql -->
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-sql_2.12</artifactId>
<version>${spark.version}</version>
</dependency>
</dependencies>
当然 这个异常还有可能是以下原因导致的:
a.没有相关依赖包
b.导入同一个依赖包的不同版本,系统无法识别使用哪一个
其他原因,有朋友遇到可以提出来,一起讨论