SPARK下载安装

1.

JDK部署
Spark是跑在JVM上,所以必须部署JDK
提供百度网盘的JDK下载地址:
64位操作系统:jdk-8u211-windows-x64.exe
https://pan.baidu.com/s/1EU1SM4h02Uj0fI-myzys9Q

*环境变量设置(在电脑输入高级环境变量--环境变量-系统变量)
系统变量新建:JAVA_HOME >> C:\Program Files\Java\jdk1.8.0_211
在PATH后面加入 ;%JAVA_HOME%\bin;%JAVA_HOME%\jre\bin;注意分好
系统变量新建:CLASSPATH >> .;%JAVA_HOME%\lib;%JAVA_HOME%\lib\tools.jar

参考:https://jingyan.baidu.com/article/6dad5075d1dc40a123e36ea3.html
*测试
java -version

2.hadoop下载

step 1 : 从 (https://github.com/steveloughran/winutils)下载适合自己版本的文件;

step 2:  对该文件进行解压;

step 3: 配置环境变量:

①增加系统变量HADOOP_HOME,值是下载的zip包解压的目录,我这里

C:\Users\87671\Downloads\winutils-master\winutils-master\hadoop-2.7.1

②在系统变量path里增加%HADOOP_HOME%\bin

3.Spark部署
Spark 从官网上http://spark.apache.org/downloads.html

下载spark-2.4.1-bin-hadoop2.7 解压后 bin目录为可执行文件,conf目录为配置目录
注意文件名之间不要有空格
SPARK_HOME>>C:\Users\87671\Downloads\spark-2.4.3-bin-hadoop2\spark-2.4.3-bin-hadoop2\spark-2.4.3-bin-hadoop2.7
PATH >> ;%SPARK_HOME%\bin;%SPARK_HOME%;

4.python(可以通过anaconda)

  • python 与 spark关联
    打开anaconda命令行findspark模块:pip install findspark

  • 打开spark‘

  • import findspark
    #可在环境变量中进行设置,即PATH中加入如下地址
    findspark.init("C:\\Users\\87671\\Downloads\\spark-2.4.3-bin-hadoop2\\spark-2.4.3-bin-hadoop2\\spark-2.4.3-bin-hadoop2.7")
    from pyspark import SparkContext as sc
    from pyspark import SparkConf as conf
    

    第一个程序

  • 
    from pyspark.sql import SparkSession
    from pyspark import SparkContext
    from pyspark import SparkConf
    
    # 创建sc
    sc=SparkContext("local","Simple")
    
    #读取文件
    textFile = sc.textFile("E:/pythonWp/sparkWP/wordCount/word.txt")
    def contains(line):
         return 'hello' in line
    filterRDD = textFile.filter(contains)
    filterRDD.cache()
    filterRDD.count()
    
    counts=textFile.flatMap(lambda line: line.split(" ")) \
                 .map(lambda word: (word, 1)) \
                 .reduceByKey(lambda a, b: a + b)
    counts.foreach(print)
    

    textFile包含了多行文本内容,textFile.flatMap(labmda line : line.split(” “))会遍历textFile中的每行文本内容,当遍历到其中一行文本内容时,会把文本内容赋值给变量line,并执行Lamda表达式line : line.split(” “)。line : line.split(” “)是一个Lamda表达式,左边表示输入参数,右边表示函数里面执行的处理逻辑,这里执行line.split(” “),也就是针对line中的一行文本内容,采用空格作为分隔符进行单词切分,从一行文本切分得到很多个单词构成的单词集合。这样,对于textFile中的每行文本,都会使用Lamda表达式得到一个单词集合,最终,多行文本,就得到多个单词集合。textFile.flatMap()操作就把这多个单词集合“拍扁”得到一个大的单词集合。

    然后,针对这个大的单词集合,执行map()操作,也就是map(lambda word : (word, 1)),这个map操作会遍历这个集合中的每个单词,当遍历到其中一个单词时,就把当前这个单词赋值给变量word,并执行Lamda表达式word : (word, 1),这个Lamda表达式的含义是,word作为函数的输入参数,然后,执行函数处理逻辑,这里会执行(word, 1),也就是针对输入的word,构建得到一个tuple,形式为(word,1),key是word,value是1(表示该单词出现1次)。

    程序执行到这里,已经得到一个RDD,这个RDD的每个元素是(key,value)形式的tuple。最后,针对这个RDD,执行reduceByKey(labmda a, b : a + b)操作,这个操作会把所有RDD元素按照key进行分组,然后使用给定的函数(这里就是Lamda表达式:a, b : a + b),对具有相同的key的多个value进行reduce操作,返回reduce后的(key,value),比如(“hadoop”,1)和(“hadoop”,1),具有相同的key,进行reduce以后就得到(“hadoop”,2),这样就计算得到了这个单词的词频。

     

参考:https://blog.csdn.net/SummerHmh/article/details/90146991 

http://dblab.xmu.edu.cn/blog/spark-quick-start-guide/

  • 2
    点赞
  • 18
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 1. 首先,打开浏览器,进入Spark官网(https://spark.apache.org/)。 2. 在官网首页中,点击“Download”按钮,进入下载页面。 3. 在下载页面中,选择“Spark release”版本,然后选择“2.4.5”版本(或者其他你需要的版本),然后选择“Pre-built for Apache Hadoop 2.7 and later”版本。 4. 点击“Download Spark”按钮,开始下载Spark。 5. 下载完成后,解压Spark压缩包到你想要安装的目录下。 6. 打开解压后的Spark目录,找到“conf”文件夹,将其中的“spark-env.sh.template”文件复制一份,并将复制后的文件重命名为“spark-env.sh”。 7. 打开“spark-env.sh”文件,找到“SPARK_HOME”变量,并将其设置为Spark目录的绝对路径。 8. 打开命令行窗口,进入Spark目录下的“bin”文件夹。 9. 在命令行窗口中,输入“spark-shell”命令,启动Spark Shell。 10. 如果一切正常,你应该能够看到Spark Shell的欢迎界面,表示Spark已经安装成功了。 ### 回答2: Spark作为一个流行的大数据框架,被广泛用于数据处理、分析和机器学习等领域。本文将介绍Spark的Windows下载安装及配置过程,帮助Spark新手快速入门。 1. 下载Java 首先,需要从Oracle官网下载Java开发包(JDK),因为Spark需要Java环境的支持。请注意,推荐使用JDK 1.8或更高版本。下载后,将文件解压至任意目录即可。 2. 下载WinUtils 由于Spark需要WinUtils支持,因此需要先从官网下载hadoop支持组件winutils。请从以下链接下载对应版本的WinUtils,然后将其解压到任意目录下: https://github.com/steveloughran/winutils/blob/master/hadoop-2.7.1/bin/winutils.exe 3. 下载Spark下载Spark之前,需要确认使用的Spark版本是否兼容您的操作系统。推荐使用最新的Spark版本。请从以下链接下载对应版本的Spark: https://spark.apache.org/downloads.html 下载后,将文件解压至任意目录即可。 4. 配置环境变量 为了让Windows系统能够正确访问Java、Spark和WinUtils,需要设置部分环境变量。请按照以下步骤进行: 1)打开“控制面板”,选择“系统和安全”,然后选择“系统”。 2)在左侧导航栏中选择“高级系统设置”,然后选择“环境变量”。 3)在“用户变量”中添加JAVA_HOME,将路径值设置为Java安装目录,例如:C:\Program Files\Java\jdk1.8.0_221。 4)在“系统变量”中添加HADOOP_HOME,将路径值设置为WinUtils解压目录,例如:C:\hadoop\bin。 5)在“系统变量”中修改PATH,将Spark安装目录(例如C:\spark-xxx-bin-hadoop2.7)添加到PATH变量末尾。 5. 测试Spark 在完成以上步骤后,即可开始测试Spark是否正确安装和配置。请按照以下步骤运行Spark: 1)打开命令提示符(CMD)。 2)输入:spark-shell,然后按回车键。 3)如果您看到了Spark版本和其他输出信息,那么恭喜您,Spark已经成功安装和配置完毕了! 至此,Spark在Windows系统上的配置就已完成。接下来您可以开始进行Spark编程和数据处理了。祝您使用愉快! ### 回答3: Apache Spark 是一个快速的、通用的大数据处理引擎,具有分布式计算和内存计算的能力。它能够处理大量的数据,并支持强大的机器学习、图形处理和流处理功能。本文将介绍在 Windows 系统下安装 Apache Spark 的基本步骤。 一、下载 在 Apache Spark 的官网上,可以找到最新版的下载链接。用户需要根据自己的需求,选择合适的版本进行下载,比如某个具体版本,Hadoop支持版本,Scala版本。下载后,将文件解压缩到本地任意文件夹。 二、设置环境变量 在安装 Spark 前,需要设置环境变量。需要将 Spark 的目录加入到 Path 环境变量当中。步骤如下: 1.打开 "系统属性",并点击 "高级系统设置"。 2.在 "高级" 选项卡下,点击 "环境变量"。 3.在 "系统变量" 下,找到 "Path",并点击 "编辑"。 4.点击 "新建",添加 Spark 的路径。 5.完成后,点击 "确定"。 三、启动 Spark 1.通过命令行进入 Spark 的根目录,在其中输入 ./bin\spark-shell 命令启动 Spark。 2.如果一切顺利,Spark 将会打印一些日志信息,并显示以下信息。 Starting Spark shell version 2.1.0 Spark context Web UI available at http://xxxx:4040 Spark context available as 'sc' (master = local[*], app id = local-xxxxx) Spark session available as 'spark' 在这里,我们已经成功启动了 Spark,并可以使用 Spark shell 进行交互式的数据处理。 四、测试 Spark 最简单的测试是读入一个文本文件,然后计算出其中每个单词的出现次数。在 Spark shell 中,执行以下语句即可。 val textFile = sc.textFile("README.md") val counts = textFile.flatMap(line => line.split(" ")) .map(word => (word, 1)) .reduceByKey(_ + _) counts.collect().foreach(println) 这里,我们首先读取了 README.md 文件,并将其转换成一个 RDD(弹性分布式数据集)。然后对 RDD 进行了一系列转换操作,最后通过 collect 方法,将结果输出到屏幕上。 五、总结 本文简要介绍了在 Windows 系统下安装和使用 Apache Spark 的基本步骤。Spark 可以帮助我们处理大规模的数据,具有良好的扩展性和高效性,让数据处理变得更加轻松和高效。如果你正在处理大数据,可以考虑使用 Apache Spark

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值