- File -> Project Structure -> Artifacts -> 选择’+'号 -> JAR -> From modules with dependencies -> OK
- Output directory为打包的jar包路径,需要打包依赖的不用修改,不需要的删掉依赖jar包,只剩下一个complie output文件即可,一般来说spark要求打包依赖。点击OK。
- Build -> Build Artifacts -> Action选择build
- 运行完之后去jar包路径找到jar包
- cd进当前目录,可以选择用
tar tvf [jar包名] -> out.txt
命令输出一个out.txt文件查看jar包里面有什么,如果有文件里的class文件,说明打包完成。 - spark-submit时class参数用jar包里有的class即可,参数为包名。
为什么要写这么一篇没有营养的帖子呢,因为网上idea打包scala jar包的帖子太多了,大部分都是让你选择Maven -> package -> Run Maven Build来生成jar包,然而这个在target文件夹里jar包只是一个空壳,配置pom.xml又要耗费大量精力,浪费了一晚上精力实在让我十分生气。