使用idea编写spark时,打包之后一直没有scala目录下的源码。
构建环境
<plugin>
<groupId>net.alchim31.maven</groupId>
<artifactId>scala-maven-plugin</artifactId>
<version>3.2.2</version>
<executions>
<execution>
<!-- 声明绑定到 maven 的 compile 阶段 -->
<goals>
<goal>testCompile</goal>
</goals>
</execution>
</executions>
</plugin>
spark2.4,scala2.11
打包时提示存在多个版本,所以指定了scala编译版本
<properties>
<scala.version>2.11.12</scala.version>
</properties>
这可能是idea或者scala的问题,但是代码在idea上能够正常运行,猜测是编译之后打包才能添加到。
第一方式:
- mvn clean
- 使用idea的菜单“Build”->"Build project"或者"Build Module "
- mvn package
第一方式: - mvn clean
- 运行代码
- mvn package