scala VS java之IDEA2019.3搭建Maven+Scala+Java开发环境

背景

小编最近在网上看到一个面试题,java和scala孰强孰弱,秋色当属哪家强?

我下意识的就想说当然是scala啦!由于这些年一直在做大数据方面的开发,主要编程语言就是scala,上来就想说是of course scala。

然而,当我把这话就将脱手而写的时候,我心里反问我自己

确定可以这样说吗?

会不会被人鄙视?

会不会误人子弟?

毕竟java语言已经存在很久了,而且霸榜语言排行榜这么多年,经历了传统的javase、javaee、安卓等等,到现在的大数据技术的语言王者,还有spring全家套餐,总之一句话软硬件,爬虫web等等好像都会有它的身影。

所以我想要好好的了解下java,并且做成一个专题,持续的更新java vs scala系列,因为能力有限,可能写的会比较片面,只为追求卓越。

环境搭建

刚开始,肯定是环境搭建,这里给大家提供安装包和步骤,自行安装

点击Create New Project

选择Maven,选择jdk,我选择的是jdk11,点击Next

如上所示,上面的选项都不唯一啊,自行决定,点击Finish

好的,现在我们进来了,

在main下面创建一个scala文件,然后再Mark Directory as ->sources root,我在里已经做过了,所以就不再显示了,这只是加入scala包的一种方式,也可以直接创建scala工程,直接会有scala和java包,我们这次暂且就按这种方式进行,以后有机会。

点击 project settings-> Libraries->点击+,选择System对应scala版本,一直点击ok。

现在右键点击scala文件夹,再点击New,会出现最右面的选择项,现在已经看到Scala Class

现在,我在Scala下面创建了一个firstblood文件夹,可以新建Class、Case Class 、Object、Case Object、Trait等。

好了,成功了。我把github的地址也一并发出来,https://github.com/DeveloperZJQ/scalavsjava.git  持续更新中。。。

下面是搭建idea+maven+spark+scala项目的步骤: 1. 安装JDK和Scala环境。 2. 安装Maven。 3. 在IDEA中创建Maven项目。 4. 在pom.xml文件中添加依赖,包括Spark和Scala相关依赖。 5. 在src/main/scala目录下创建Scala文件。 6. 编写Spark程序。 7. 运行程序。 具体步骤如下: 1. 安装JDK和Scala环境 首先需要安装Java开发工具包(JDK),并配置环境变量。然后安装Scala编程语言,同样也需要配置环境变量。可以参考官网的安装说明进行操作。 2. 安装Maven Maven是一个Java项目管理工具,可以自动下载所需的依赖库,并将项目打包成Jar包。可以从官网下载Maven,并配置环境变量。 3. 在IDEA中创建Maven项目 在IDEA中创建Maven项目,选择Scala模板,填写项目名称、groupId、artifactId等信息。IDEA会自动生成pom.xml文件。 4. 在pom.xml文件中添加依赖 在pom.xml文件中添加Spark和Scala相关依赖,例如: ``` <dependencies> <dependency> <groupId>org.apache.spark</groupId> <artifactId>spark-core_2.11</artifactId> <version>2.4.5</version> </dependency> <dependency> <groupId>org.apache.spark</groupId> <artifactId>spark-sql_2.11</artifactId> <version>2.4.5</version> </dependency> <dependency> <groupId>org.scala-lang</groupId> <artifactId>scala-library</artifactId> <version>2.11.8</version> </dependency> </dependencies> ``` 5. 在src/main/scala目录下创建Scala文件 在src/main/scala目录下创建Scala文件,例如: ``` object Test { def main(args: Array[String]) { val conf = new SparkConf().setAppName("Test").setMaster("local[*]") val sc = new SparkContext(conf) val sqlContext = new SQLContext(sc) val df = sqlContext.read.json("data/people.json") df.show() } } ``` 6. 编写Spark程序 在Scala文件中编写Spark程序,例如读取JSON文件并显示数据。 7. 运行程序 在IDEA中运行程序,即可看到Spark程序的输出结果。 以上就是搭建idea+maven+spark+scala项目的步骤。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

京河小蚁

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值