spark安装及环境配置(win10)

本人环境:win10

安装spark环境所需的安装包已经打包好,放在文末的网盘中,只需解压后配置下面步骤中的环境变量即可。

安装包及步骤:

  • Jdk + 环境变量配置
  • Hadoop + 环境变量配置
  • Spark + 环境变量配置
  • Scala

JDK:

下载官网

根据电脑配置选择要下载的版本,本人下载的是jdk-8u211-windows-x64

环境变量配置
  • 系统变量中添加:

    变量名:JAVA_HOME
    变量值:安装路径

    如下图所示,D:\spark_home\Java\jdk1.8.0_211是本人jdk的安装路径
    在这里插入图片描述

  • 系统变量中添加:

    变量名:CLASSPATH
    变量值:%JAVA_HOME%\lib

  • Path中添加:

    %JAVA_HOME%\bin

Hadoop:

下载网址:

本人下载的是hadoop-2.7.5

环境变量配置:
  • 系统变量中添加:

    变量名:HADOOP_HOME
    变量值:安装路径

如下图所示:D:\spark_home\hadoop-2.7.5是本人的安装路径

在这里插入图片描述

  • Path中添加:

    %HADOOP_HOME%\bin

用winutils-master中对应版本的bin文件替换掉,hadoop安装文件中的bin文件

winutils-master文件在文末网盘中

Spark

下载官网:

本人下载的是spark-2.4.2-bin-hadoop2.7

环境变量配置:
  • 系统变量中添加:

    变量名:SPARK_HOME
    变量值:安装路径

如下图所示:D:\spark_home\spark-2.4.2-bin-hadoop2.7是本人的安装路径
在这里插入图片描述

  • Path中添加:

    %SPARK_HOME%\bin
    %SPARK_HOME%\sbin

Scala:

下载网址

本人下载的是2.13.3版本的

验证是否安装成功:

  • 重启电脑
  • win + R:打开cmd,进入命令框
  • 输入:spark-shell

我们可以看到spark安装成功
在这里插入图片描述

pyspark安装:

命令框中安装:

pip install findspark

现在就可以用python愉快的学习spark了:

import findspark        # 通过findspark导入spark
findspark.init()

import pyspark          
from pyspark import SparkContext  
sc = SparkContext.getOrCreate()     # 初始化SparkContext

nums = [1,2,3,4,5]
rdd = sc.parallelize(nums)
rdd.collect()

输出:
[1, 2, 3, 4, 5]

安装包:

链接:https://pan.baidu.com/s/1ESOdhW35YUrxNt9-NAjm1A
提取码:ngin

  • 7
    点赞
  • 30
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值