windows10搭建spark本地开发环境

1. spark概述

注意:Spark3.0、Spark3.1是由Scala2.12预编译,但是Spark 3.2+是采用Scala 2.13预编译。

2. 安装spark

2.1 Windows10 安装Spark本地开发环境

2.1.1 版本说明

  • JDK 1.8
  • Scala 2.12.x,具体版本为2.12.17
  • Hadoop 3.2.2
  • IntelliJ IDEA 2019.3.3 (Ultimate Edition)
  • Spark 3.0.2

Spark版本和Hadoop的版本关系并没有明确的限制,但是Spark官方已经预编译好了几个版本的spark包,我们可以直接下载使用,如果预编译好的spark包中没有合适,则需要自己来通过spark的源码进行编译了。
在这里插入图片描述

Spark 3.0.2的官方下载地址:https://archive.apache.org/dist/spark/spark-3.0.2/

当下载spark-3.0.2时发现,有如下几种spark包:

  • SparkR_3.0.2.tar.gz:SparkR是一个R语言包,它提供了轻量级的方式使得可以在R语言中使用Apache Spark。包括SparkR 的交互式命令行窗口。
  • pyspark-3.0.2.tar.gz:PySpark简单来说就是Spark提供的Python编程API,包括交互式的PySpark shell和非交互式的Python程序。参考:https://blog.csdn.net/qq_40856560/article/details/116027896
  • spark-3.0.2-bin-hadoop2.7-hive1.2.tgz: 预编译好的支持Hadoop 2.7.x,Hive 1.2.x的spark 3.0.2的包
  • spark-3.0.2-bin-hadoop2.7.tgz: 预编译好的支持Hadoop 2.7.x 的spark 3.0.2的包
  • spark-3.0.2-bin-hadoop3.2.tgz: 预编译好的支持Hadoop 3.2.x 的spark 3.0.2的包
  • spark-3.0.2-bin-without-hadoop.tgz: spark中没有关联Hadoop的包,当运行此版本的spark时,需要用户手动将spark和hadoop关联上,参考:https://blog.csdn.net/yoshubom/article/details/104598483
  • spark-3.0.2.tgz: spark源码包,可以根据需要自己编译出指定Hadoop版本,Hive版本的spark包

2.1.2 环境准备

2.1.2.1 JDK 安装和配置
2.1.2.1.1 JDK下载

JDK下载地址:https://www.oracle.com/java/technologies/downloads/

目前最新的稳定版为JDK 17
请添加图片描述

但是,我们要下载JDK8。单击页面中的Java archive

请添加图片描述

单击Java SE 8,进入JDK 8 下载页面。

请添加图片描述

单击下载jdk-8u271-windows-x64.exe

请添加图片描述

2.1.2.1.2 JDK安装

双击jdk-8u271-windows-x64.exe进行JDK8的安装。

2.1.2.1.3 JDK配置

在系统环境变量中添加JAVA_HOME,并将JAVA_HOME添加到系统环境变量的Path中。

增加 JAVA_HOME:D:\services\Java\jdk1.8.0_261

Path中新增:%JAVA_HOME%\bin和%JAVA_HOME%\jre\bin

CLASSPATH中新增:%JAVA_HOME%/lib/dt.jar;%JAVA_HOME%/lib/tools.jar

验证JDK是否安装正确了
请添加图片描述
说明JDK已经安装好了。

2.1.2.2 Scala 安装和配置

Scala官网

2.1.2.2.1Scala下载

Scala下载地址:https://www.scala-lang.org/download/all.html
请添加图片描述
下载scala-2.12.17.zip,,然后在手动配置系统环境变量即可。当然也可以下载scala 2.12.17.msi,然后根据提示进行安装

请添加图片描述
请添加图片描述

2.1.2.2.2 Scala安装

解压scala-2.12.17.zipD:\services\scala-2.12.17

2.1.2.2.3 Scala配置

在系统环境变量中添加SCALA_HOME,并将SCALA_HOME添加到系统环境变量的Path中。

我的电脑 > 属性 > 高级系统配置 > 环境变量

进入高级系统设置

请添加图片描述

进入环境变量

请添加图片描述

新建SCALA_HOME环境变量

请添加图片描述

请添加图片描述

SCALA_HOME 添加到系统环境变量Path中

请添加图片描述

请添加图片描述

请添加图片描述
请添加图片描述

验证下scala是否安装和配置正确了

请添加图片描述

上图说明scala安装好了。

2.1.2.3 Hadoop 安装和配置
2.1.2.3.1 Hadoop下载

浏览器打开https://hadoop.apache.org/releases.html 页面,点击图中的连接(https://archive.apache.org/dist/hadoop/common),跳转到历史版本的hadoop的下载页面。

请添加图片描述

找到hadoop-3.2.2,点击进入。
请添加图片描述

可以看到,有好几种hadoop的tar包。

请添加图片描述

  • hadoop-3.2.2-rat.txt:
  • hadoop-3.2.2-site.tar.gz:
  • hadoop-3.2.2-src.tar.gz:
  • hadoop-3.2.2.tar.gz:

这里选择下载hadoop-3.2.2.tar.gz,但是从官网下载十分慢,所以在华为云镜像网站进行下载,网址如下:https://repo.huaweicloud.com/apache/hadoop/core/hadoop-3.2.2/

请添加图片描述

下载完毕。
请添加图片描述

2.1.2.3.2 Hadoop安装

解压Hadoop安装包,解压到D:\services\

请添加图片描述

2.1.2.3.3 Hadoop配置

在系统环境变量中添加HADOOP_HOME,并将HADOOP_HOME添加到系统环境变量的Path中。

我的电脑 > 属性 > 高级系统配置 > 环境变量

进入高级系统设置

请添加图片描述

进入环境变量

请添加图片描述

新建HADOOP_HOME环境变量

请添加图片描述

请添加图片描述

HADOOP_HOME 添加到系统环境变量Path中

请添加图片描述
请添加图片描述

请添加图片描述
请添加图片描述

验证Hadoop的环境变量是否配置好了。

请添加图片描述

执行hadoop version命令是正常的。

2.1.2.4 Spark 安装和配置
2.1.2.4.1 Spark下载

Spark官方网站下载地址

请添加图片描述

注意:Spark 3是由Scala 2.12构建的,Spark 3.2+是由Scala 2.13构建的,在安装Spark时需要安装对应版本的Scala。

由于当前Spark最新的稳定版为spark-3.3.1-bin-hadoop3.tgz,因此我们需要找到之前版本的spark。

在这里插入图片描述

单击archived releases中的网址,如下所示:

在这里插入图片描述

找到spark-3.0.2的目录,进去之后单击下载spark-3.0.2-bin-hadoop3.2.tgz
在这里插入图片描述

2.1.2.4.2 Spark安装

解压spark安装包,解压到D:\services\spark-3.0.2-bin-hadoop3.2
请添加图片描述

2.1.2.4.3 Spark配置

在系统环境变量中添加SPARK_HOME,并将SPARK_HOME添加到系统环境变量的Path中。

我的电脑 > 属性 > 高级系统配置 > 环境变量

进入高级系统设置

请添加图片描述

进入环境变量

请添加图片描述

新建SPARK_HOME环境变量

请添加图片描述

请添加图片描述

SPARK_HOME 添加到系统环境变量Path中

请添加图片描述

请添加图片描述

请添加图片描述
请添加图片描述

验证Spark的环境变量是否配置好了。

请添加图片描述

如果出现如上图的提示HADOOP_HOME没有配置,说明HADOOP_HOME的环境变量配置有问题,需要正确配置HADOOP_HOME

正确配置好HADOOP_HOME之后,执行spark-shell命令。

请添加图片描述

虽然最终进入到了spark shell中,但是中间报了一个错误,提示找不到D:\services\hadoop-3.2.2\bin\winutils.exe文件,通过查看发现确实不存在该文件,此时我们需要从https://github.com/srccodes/hadoop-common-2.2.0-bin/tree/master/bin此处下载winutils.exe文件,并保存到本地D:\services\hadoop-3.2.2\bin\目录下。然后再次运行spark-shell,结果如下:

请添加图片描述

spark-shell启动正常了。

浏览器访问 http://127.0.0.1:4041/jobs 可以打开spark web ui。如下图所示:
请添加图片描述

参考文档

[1] Spark在Win10下的环境搭建

[2] 【Spark笔记】Windows10 本地搭建单机版Spark开发环境

  • 14
    点赞
  • 33
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
Windows 10是一种操作系统,可以用于开发和测试Hadoop和Spark的本地环境。 要在Windows 10上进行Hadoop和Spark的开发和测试,我们可以使用一些工具和软件。 首先,我们可以使用Hadoop和Spark的官方网站提供的二进制文件来安装它们。我们需要下载和安装Hadoop的二进制文件,然后配置Hadoop的环境变量。在Hadoop安装完成后,我们还需要配置Hadoop的核心配置文件,例如hadoop-env.sh和core-site.xml。 接下来,我们可以下载和安装Spark的二进制文件,并将其配置为与Hadoop协同工作。我们需要在Spark的配置文件中指定Hadoop的路径。我们还可以配置Spark的一些其他设置,例如内存分配和并行度等。 在安装和配置Hadoop和Spark之后,我们可以使用本地模式或伪分布式模式来进行开发和测试。本地模式是指将数据存储在本地文件系统上,并且不涉及集群。这使我们可以快速的进行开发和测试,但不适合处理大规模的数据。 伪分布式模式是指将数据存储在Hadoop的分布式文件系统(HDFS)上,并在本机上模拟一个分布式环境。这样,我们可以模拟真实环境的数据处理和分布式计算。在伪分布式模式下,我们可以运行Hadoop的各种任务和Spark的作业,以测试它们的性能和可靠性。 总之,使用Windows 10可以在本地开发和测试Hadoop和Spark环境。我们需要下载和安装Hadoop和Spark的二进制文件,并进行适当的配置。然后,我们可以在本地模式或伪分布式模式下进行开发和测试。这样,我们可以在一个便捷和可控的环境中进行Hadoop和Spark的开发和测试,以满足我们的需求。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值