IntelliJ IDEA下的Spark程序开发

1.创建项目:
选好javaSDK和scalaSDK



2.导入Spark jar 文件依赖
File-Project Structure-Libraries-jar 选择 spark路径下lib文件夹内的assembly jar包。



选择菜单中的“Run” ->“Edit Configurations”,修改“Main class”和“VM options”。 

在VM options中输入“ -Dspark.master=local ”,指示本程序本地单线程运行。


3.编写代码:


4.打jar包:
File-Project Structure-Artifacts-JAR-From modules with dependencies




注意名字这里要把“:jar”去掉


5.build Jar包:
Build-Build Artifacts...

选择build



假设jar的存放目录为/usr/Dery/Desktop/FilghtUSA.jar

则提交spark运行的代码为:
./spark-aubmit
--class com.liufan.sdut.flightUSA  /*  运行包下的类  */
--master spark://Master:7077   /* masterIP  */
/usr/Dery/Desktop/FilghtUSA.jar  /*jar包存放地址 */
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值