使用IntelliJ Idea开发Spark应用程序
未经许可,禁止以任何形式转载,若要引用,请标注链接地址
全文共计3704字,阅读大概需要3分钟
一、实验目的
掌握使用IntelliJ Idea开发Spark应用程序的过程。
二、实验内容
1、使用IntelliJ Idea开发本地Spark应用程序。
2、部署分布式Spark应用程序。
三、实验原理
首先创建Spark应用程序,在本地运行并测试;然后修改Spark应用程序,访问分布式文件系统HDFS;最后将项目打为jar包,部署到Spark集群上执行。
四、实验环境
硬件:x86_64 ubuntu 16.04服务器
软件:JDK1.8,Spark-2.3.2,Hadoop-2.7.3,IntelliJ Idea
五、实验步骤
5.1 启动IntelliJ Idea并创建spark项目
1、启动IntelliJ Idea。在终端窗口下,执行以下命令: