1 打开idea
2 创建新的工程
3 建立scala工程(这里不选择sbt的原因,sbt需要连接网络)
输入工程名:
注意这里scala的版本,spark对scala的版本有要求
点击finish
修改项目的属性
在src下建立目录org/apache/spark/examples
4 导入Spark开发需要的jar
导入spark-assembly-1.5.1-hadoop2.6.0.jar
输入工程名:
注意这里scala的版本,spark对scala的版本有要求
点击finish
修改项目的属性
在src下建立目录org/apache/spark/examples
导入spark-assembly-1.5.1-hadoop2.6.0.jar