windows搭建spark环境

一、软件准备

默认java开发环境是安装了的,不会的自己去查找。准备安装软件:scala(spark需要scala环境),spark,hadoop。

二、安装Scala

下载地址:[http://www.scala-lang.org/download/all.html]
在这里插入图片描述
我下载的是2.13.9版本的。点进去后下载如下图文件:
在这里插入图片描述
下载好后,点击安装文件直接安装。Scala安装好之后呢,它会自动在环境变量PATH里面配置。我们不需要进行手动配置了。下面就打开cmd输入Scala看下安装后控制台的输出效果。 在这里插入图片描述

三、安装hadoop

1.hadoop下载

hadoop我选择的版本是3.1.0,windows安装还需要winutils,下载地址:链接:https://pan.baidu.com/s/1brUBXJvXlPG7KU4lXDcrZA
提取码:wqd9
里面有两个文件:hadoop-3.1.0.tar.gz,apache-hadoop-3.1.0-winutils-master.zip

2.安装

1.解压文件

解压hadoop-3.1.0.tar.gz,我的hadoop-3.1.0解压后文件夹的路径为E:\hadoop-3.1.0;在解压apache-hadoop-3.1.0-winutils-master.zip文件将bin文件夹复制到E:\hadoop-3.1.0替换该目录下的bin。

2.配置环境变量

在新建系统变量中:变量名填HADOOP_HOME,变量值填hadoop-3.1.0对应的路径(比如我的是E:\hadoop-3.1.0)
在这里插入图片描述
顺便可以检查一下JAVA_HOME有没有配置好,后面会用到
然后点击Path变量进行编辑,在最前面加上%HADOOP_HOME%\bin,配置完后如图所示:
在这里插入图片描述

3.检查环境变量是否配置成功

配置好环境变量后,win+R 输入cmd打开命令提示符,然后输入hadoop version,按回车,如果出现如图所示版本号,则说明安装成功。我在安装过程中,敲入命令后发现报错:
在这里插入图片描述如果JAVA_HOME环境变量配置也没问题,则说明是错误提示中的配置文件中的JAVA_HOME配置有问题。
该目录下的配置文件中的JAVA_HOME目录是:C:\Program Files\Java\jdk1.8.0_131
因为Program Files中间存在空格,所以出现错误,只需要用PROGRA~1代替Program Files即可。

4.报错的解决方法

1.方法一:修改E:\hadoop-3.1.0\etc\hadoop\hadoop-env.cmd配置文件的JAVA_HOME目录改为:set JAVA_HOME=C:\PROGRA~1\Java\jdk1.8.0_131
在这里插入图片描述
2.方法二:把jdk安装到根目录或者不存在空格的目录下即可。
我采用的第一个方法。修改后,在运行命令,检验结果:
在这里插入图片描述

四、安装Spark

1.下载

下载地址:https://spark.apache.org/downloads.html
我下载的是Spark 3.3.0版本。
在这里插入图片描述

2.安装

解压下载好的spark-3.3.0-bin-hadoop3.tgz到E:\spark-3.3.0,然后配置一下Path环境变量就可以了
在这里插入图片描述
注:解压目录根据自己实际解压目录来。

3.验证

下面我们来验证一下看spark是否能正常启动。 在控制台输入下命令:spark-shell 注意spark-shell之间是没有空格的,千万不要输错了。 情况看图片
在这里插入图片描述

至此,windows下搭建spark环境完成。

  • 8
    点赞
  • 37
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值