win10搭建spark3.1环境(超详细)

0.写在前面

目前Spark官方提供的最新版本3.2.0,是2021年10月份发布,但是该版本搭建Windows下环境,在使用spark-shell时,会报错,尚无解决方案(不知道现在解决没有)。所以我安装的是3.1版本
所使用的到的版本
spark 3.1.3
hadoop 3.2.1
scala 2.12 (注意,spark3.1.2不支持Scala2.13)
java 1.8

使用到的链接
scala官方下载
spark官方下载
hadoop官方下载
winutils下载
另所有使用的东西我都打包到
链接:https://pan.baidu.com/s/1fFEZmqUWZks-Hh5LkKRVww
提取码:1152

1.java环境

这里建议安装java8 不要装太高或者太低的版本
去官网上下载好 双击
在这里插入图片描述
点击下一步
在这里插入图片描述
选择你指定的目录 选取下一步 进行安装
在这里插入图片描述
这里我安装到了 D:\Java
记得配置环境!!!
win10 搜索环境变量 点击环境变量
在这里插入图片描述
新建变量 JAVA_HOME 注意大写
在这里插入图片描述
点击编辑 path 新建java环境
在这里插入图片描述
完成以后 进行检验
打开cmd 输入 java -version
在这里插入图片描述
这样即可

2.安装scala

要注意的问题scala的版本要和spark版本对应 这里我安装的scala 2.12
点击链接 滑到下面 点击
在这里插入图片描述
往下滑 选择.msi的文件下载安装,会自动在系统中添加环境变量。
在这里插入图片描述
查看是否已经安装变量 (查看是否有SCALA_HOME 和path里面是否已经添加变量)
在这里插入图片描述
在这里插入图片描述
没有的话 请补充
完成以后 进行检验
打开cmd 输入 scala
在这里插入图片描述

3.安装spark

还记得前面的scala与spark对应
这里安装3.1版本
打开链接
注意标红线的地方 进行下载
在这里插入图片描述
解压
在这里插入图片描述
同样的 我们要配置环境 如下图
在这里插入图片描述
path 当中环境
在这里插入图片描述
其实 改成%SPARK_HOME%\bin 一样的 前面也是

4.安装hadoop

根据之前的
我们 安装 hadoop3.2.1 下载链接
在这里插入图片描述
据说tar.gz是编译好的,不需要我们再做编译,包括前面选择也是gz。
![在这里插入图片描述](https://img-blog.csdnimg.cn/4c5ae32b29704765a6b10820b35ac56e.png
在这里插入图片描述下载,解压到指定目录下
在这里插入图片描述同样的 我们要配置环境 如下图
在这里插入图片描述
在path环境中新建
在这里插入图片描述
打开cmd
输入 hadoop version
在这里插入图片描述

5.安装winutils

链接如下(上文也有)
https://github.com/cdarlint/winutils
我们进行下载对应版本
在这里插入图片描述
把这个文件放到hadoop的bin下
在这里插入图片描述
完成

6.测试程序

打开cmd
输入 spark-shell
在这里插入图片描述
完成

  • 3
    点赞
  • 18
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值