Spark在Windows环境下的搭建

一、安装JDK

本文写于2022年3月,此时最新版的JDK已经更新到了JDK17——下载地址。为了满足开发人员的需要,Oracle仍然提供了JDK8和JDK11可供下载,下载链接也在上面的网站上,只需要把页面下滑即可。

注:由于需要配置Spark,但Spark与较新的JDK兼容性不好,如果使用最新的JDK,后序运行Spark过程中会出现错误。因此,建议初学者安装JDK8即可。

下载完成后即可安装。但需要注意的是,需要为JDK设置三个环境变量PATH、JAVA_HOME、CLASSPATH,网上已经有很多设置环境变量的教程,这里就不再赘述。贴一个参考链接:https://blog.csdn.net/u011513853/article/details/52865076?spm=1001.2014.3001.5506

二、安装Scala、Hadoop、Spark

scala和Hadoop下载需要注意一下和Spark的对应版本,通过Spark下载网站,如下图,可以得知对应关系。

Pre-built for Apache Hadoop 3.2 and later是指选择的安装包是已经为Hadoop3.2和3.2之后的版本预编译好的,即Hadoop需要下载3.2之后的版本。最下面写明了Spark3是用Scala 2.12预编译好的,因此我需要下载Scala 2.12.x 版本。

下载好之后同样需要设置环境变量。

在这里插入图片描述

全部安装好之后命令行输入spark-shell,如果没有提示ERROR信息,只是一些警告WARN可以不管。这里解读一下命令行的提示:

(1)有一个和Hadoop配置相关的警告,查阅资料也没找到简单的方法,索性不管了,反正不影响运行。

(2)Using Spark’s default log4j profile: org/apache/spark/log4j-defaults.properties这句话是指使用Spark默认的配置文件,路径在:%SPARK_HOME%\conf\log4j.properties.template.暂时不用管。

在这里插入图片描述

三、在IntelliJ IDEA中配置Spark

IntelliJ在业界被公认为最好的java开发工具,而Spark的原生态语言是Scala,Scala是Java的延伸,所以IntelliJ是一款很适合于运行Spark程序的集成开发环境。下载过程和基本的配置过程就不说了,可以参考这篇博客

四、遇到的问题

1.由于JDK版本太高,开始使用的最新版JDK,与Spark兼容性差,导致运行Spark程序时出现很多问题。如运行spark-shell出现java.lang.illegalAccessError。解决办法就是使用JDK8或者JDK11,Spark可能还不支持JDK17。

2.在IDEA中运行时,结果面板上出现很多INFO日志信息,而输出的结果只是隐藏在其中的一行,不易浏览。需要设置一下配置文件。前面说过路径%SPARK_HOME%\conf\log4j.properties.template是Spark的一个配置文件,我们拷贝该文件一份到IDEA工程文件下的src/main/resources文件夹,更改文件第一行log4j.rootCategory=INFO, console为log4j.rootCategory=ERROR, console,并将文件名log4j.properties.template改为log4j.properties即可。

修改前:

在这里插入图片描述

修改后:

在这里插入图片描述

  • 2
    点赞
  • 12
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值