windows下安装spark并配置环境变量

一、下载
Spark下载地址:http://spark.apache.org/downloads.html
在这里使用2.3.3版本

在这里插入图片描述

点击下图的连接下载

在这里插入图片描述

不需要安装,直接解压放到你想要放到的目录底下

二、配置环境变量

添加系统环境变量:

SPARK_HOME

在系统环境变量Path增加:%SPARK_HOME%\bin

在这里插入图片描述

在控制台输入一下命令:spark-shell
注意spark-shell之间是没有空格的,千万不要输错了。

在这里插入图片描述


报错了
这里主要是因为Spark是基于Hadoop的,所以这里也有必要配置一个Hadoop的运行环境。

安装Hadoop的运行环境后再次重新打开控制台输入spark-shell

在这里插入图片描述

如果还有以上错误日志,那么请找到你的hadoop\bin目录找下里面有没有winutils.exe文件,如果没有的话,我们需要去下载。
winutils.exe下载地址https://github.com/steveloughran/winutils
进入目录后找到你相应的hadoop目录–进入bin—找到winutils.exe文件下载。

在这里插入图片描述

在这里插入图片描述

 

下载好之后我们把它放到C:\hadoop\spark-2.3.3-bin-hadoop2.7 里面,确保该目录中有winutils.exe文件。

在这里插入图片描述

在这里插入图片描述

 

  • 2
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
### 回答1: 在Windows系统中配置Spark环境变量,需要进行以下步骤: 1. 下载Spark安装包,并解压到指定目录。 2. 打开“控制面板”,点击“系统和安全”,选择“系统”。 3. 点击“高级系统设置”,在“高级”选项卡下点击“环境变量”。 4. 在“系统变量”中,点击“新建”,输入变量名“SPARK_HOME”,变量值为Spark解压目录的路径。 5. 在“系统变量”中,找到“Path”变量,点击“编辑”,在变量值的最后添加“;%SPARK_HOME%\bin;%SPARK_HOME%\sbin”。 6. 点击“确定”保存设置,关闭所有窗口。 7. 打开命令行窗口,输入“spark-shell”命令,如果能够正常启动Spark Shell,则说明环境变量配置成功。 ### 回答2: 对于Windows用户,配置Spark环境变量是一个必要的步骤,可以方便地使用Spark进行开发和调试。本文将介绍如何配置Spark环境变量。 步骤一:下载Spark 首先,需要从官网下载Spark压缩包并解压。假设解压后的Spark文件夹路径为D:\spark。 步骤二:配置环境变量Windows系统中配置环境变量很简单,只需按照以下步骤进行即可: 1. 按Win+R快捷键,调出“运行”窗口。 2. 输入“sysdm.cpl”打开系统属性对话框。 3. 点击“高级”标签页,然后点击“环境变量”按钮。 4. 在“用户变量”或“系统变量”下添加环境变量,例如: (1)SPARK_HOME=D:\spark (2)Path=%SPARK_HOME%\bin;%PATH% 步骤三:测试 最后,打开命令提示符并输入“spark-shell”,回车后如果输出Spark的版本信息,说明配置环境变量成功。 总结: 在配置Spark环境变量时,需要特别注意几个事项: 1. Spark的版本要与下载的压缩包版本匹配。 2. 在系统变量配置环境变量较为稳妥,防止用户变量失效。 3. 在配置环境变量时,不要忘记测试是否配置成功。 希望本文对大家正确配置Spark环境变量有所帮助。 ### 回答3: Spark是一个开源的大数据处理框架,可以跨平台运行,包括Windows系统。在Windows系统中配置Spark环境变量有以下几个步骤: 1. 下载Spark 首先需要下载Spark的二进制安装包,可以在官网上下载,也可以在镜像网站上下载,注意选择对应的版本。 2. 配置环境变量 打开计算机属性,进入高级系统设置,再找到环境变量,选择用户变量,点击新建。 在新建环境变量的界面中,填写变量名为SPARK_HOME,变量值为Spark安装的目录,例如:C:\spark。另外,还需要在path的变量值中添加%SPARK_HOME%\bin。 3. 验证环境变量 在命令行中输入spark-shell,如果出现以下提示,则说明Spark环境变量配置成功。 Welcome to ____ __ / __/__ ___ _____/ /__ _\ \/ _ \/ _ `/ __/ '_/ /___/ .__/\_,_/_/ /_/\_\ version 1.6.3 /_/ Using Scala version 2.10.5 (Java HotSpot(TM) 64-Bit Server VM, Java 1.8.0_51) Type in expressions to have them evaluated. Type :help for more information. scala> 4. 配置Spark配置文件 在Spark安装目录下,可以找到conf文件夹,其中包含了Spark配置文件。可以根据需要进行配置,例如修改日志级别、JVM参数等。 以上是Spark环境变量配置的详细步骤,在Windows系统中成功配置Spark环境变量后,可以在命令行中运行Spark相关命令,例如在Spark Shell中执行脚本,或使用Spark-submit提交任务等。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值