Spark 学习笔记(一)使用Intellij Idea编写Spark应用程序(Scala+SBT)

本文介绍了如何在阿里云Linux主机上,使用IntelliJ IDEA 2018和Scala插件搭建Spark 2.3.1开发环境。详细步骤包括安装Scala插件,创建基于SBT的Scala项目,选择正确的Scala版本,以及通过SBT添加Spark核心依赖。文章还强调了在选择Scala版本和配置build.sbt时需要注意的事项。
摘要由CSDN通过智能技术生成

本文基于踩了无数坑和这篇本地部署的基础上写成。
本文适用于云主机搭建的spark环境下运行spark程序。

运行环境

阿里云主机 Linux部署 Spark 2.3.1
本地JDK 1.8
Intellij Idea (Version 2018)


安装Scala插件

安装Scala插件,该Scala插件自带SBT工具。如果已经安装Scala插件,即可跳过此步骤
这里写图片描述
点击Install,即可安装Scala插件。安装好后如图:
这里写图片描述

构建基于SBT的Scala项目

如下图,按顺序执行如下操作:
新建项目->选择Scala—>SBT

这里写图片描述
设置项目名:

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值