spark在windows10下的安装教程

Spark环境搭建

安装步骤分为java, hadoop, scala和 spark四步,其中java和hadoop在上一个环境配置中已经安装完毕,Win10下的Hadoop安装及简单操作,因此只需要安装 scala和 spark。以下是对我整个安装过程的记录。

首先登陆http://spark.apache.org/downloads.html下载符合本机Hadoop和JDK版本的Spark安装包,我的Hadoop版本是2.8.4因此下载了2.4.0版本的Spark。

下载完成后进行解压在D盘的根目录下,设置环境变量。

首先新建一个环境变量SPARK_HOME,变量名是安装的路径:

之后在Path中添加一个路径即可:

 

第二步安装Scala。进入网站https://www.scala-lang.org/download下载Scala的安装包:

安装过程中没有任何需要更改的地方,只需要摁Next即可。我在中间修改了一下安装位置,因为C盘放不下了。最后安装完毕后会自动新建环境变量。

打开cmd输入scala如果看到如下标识则安装成功。

最后打开cmd键入spark-shell出现以下标识则是安装成功:

  • 2
    点赞
  • 19
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
安装SparkWindows系统上需要一些准备工作。首先,您需要安装Scala,因为Spark是基于Scala的。根据引用中提到的内容,Spark 3版本需要先安装Scala 2.12,而Spark 3.2版本需要使用Scala 2.13。 接下来,您需要下载并安装Spark。您可以通过访问Spark官方网站的下载页面[Spark最新版](https://spark.apache.org/downloads.html)来获取最新版本的Spark。根据引用中提到的内容,您可以在该页面找到Spark的最新版本。 在安装Spark之前,还需要下载winutils。winutils是一个Windows环境下的Hadoop二进制工具,Spark依赖于它来运行。请确保您下载适用于您系统的winutils版本。 完成了上述准备工作后,您可以按照以下步骤安装和配置Spark: 1. 解压Spark安装包到您选择的目录。 2. 在Spark安装目录中,创建一个新的文件夹,命名为"hadoop"。 3. 将下载的winutils二进制文件复制到"hadoop"文件夹中。 4. 配置系统环境变量,将Spark安装目录和"hadoop"文件夹添加到PATH变量中。 5. 创建一个新的SPARK_HOME变量,并将其值设置为Spark安装目录。 6. 在Spark安装目录中,找到“conf”文件夹并重命名其中的“spark-env.sh.template”文件为“spark-env.sh”。 7. 编辑“spark-env.sh”文件,添加以下内容: ``` export HADOOP_HOME=path/to/hadoop export SPARK_DIST_CLASSPATH=$($HADOOP_HOME/bin/hadoop classpath) ``` 将"path/to/hadoop"替换为hadoop文件夹的实际路径。 8. 保存并关闭“spark-env.sh”文件。 9. 在Spark安装目录中,找到“conf”文件夹并重命名其中的“spark-defaults.conf.template”文件为“spark-defaults.conf”。 10. 编辑“spark-defaults.conf”文件,添加以下内容: ``` spark.sql.warehouse.dir path/to/warehouse ``` 将"path/to/warehouse"替换为您选择的Spark仓库目录的实际路径。 11. 保存并关闭“spark-defaults.conf”文件。 现在,您已经完成了SparkWindows系统上的安装和配置。您可以通过运行Spark的命令行工具或使用Spark的API来使用Spark进行数据处理和分析。 请注意,以上步骤仅针对Windows系统上的Spark安装,您的主机操作系统是Windows 10,所以这些步骤适用于您的系统。引用提供的信息也确认了您的操作系统类型。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *2* [Spark Windows10 安装](https://blog.csdn.net/weixin_51921447/article/details/128217219)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] - *3* [实验七:Spark初级编程实践](https://download.csdn.net/download/qq_36428822/86224843)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值