安装JDK、Scala、IDEA见我的其他博客有详细的介绍。
启动idea:

进入到某个文件夹:

File-NewProject:Scala-IDEA

Project Name:

File-Project Structure-Modules:新建文件夹,设为source

添加Library:
scala SDK:

Java Library:选择$SPARK_HOME/jar/下的所有包:

因为太多分两次导入的所有会有两个:

新建包,创建文件:

下面的案例使用scala.class。注意hadoop,spark要开启。
相同的案列的spark-shell实现在:https://blog.csdn.net/qq_25948717/article/details/83114400
直接在spark-shell下的案列不需要new出conf,sc,启动时已经初始化了,代码编写时却不能省略。
在IDEA里面编写的代码既可以直接在IDEA中运行或调试,也可以打包后提交到spark-shell。

注意提交到spark-submit时,读取的是HDFS的文件系统,输出的也是。
如果这里是通过arg参数来设置路径参数,则需要按照下面方式设置
1.直接运行:
运行之前需要进行编译:Build-Make Project或者Ctrl+F9

编译通过后,在代码界面单击鼠标右键,选择运行程序弹出“运行/调试配置”,或者下面:

选择输入设置的两个路径参数:路径是本地里面的,不是hdfs里面的,因为这个本地开发。Main Class也要选

单击Run-Run或Shift+F10运行:
运行可能会出现问题,把scala-SDK换成2.11版就行。
2.打包运行


设置包的输出路经:

设置完毕后:


生成项目的打包文件:
将文件提交到spark集群就可以了:

提交:(参数输入)

如果按照上面的程序则按下提交既可以:

如果提交后出现错误,可能是由于scala-SDK的版本所致,从创建项目开始都选择2.11.7版本就可以了。
可能出现该问题:但是不影响运行结果:

查看结果

运行:
![]()
会看到:

网页可查看:


本文详细介绍如何在IntelliJ IDEA中配置Spark开发环境,包括安装JDK、Scala及IDEA,设置项目结构,添加Library,以及如何在本地运行或打包提交到Spark集群的步骤。
1506

被折叠的 条评论
为什么被折叠?



