Spark Windows模式

由于在学习时,每次都需要启动虚拟机,启动集群,这是一个比较繁琐的过程,并且会占大量的系统资源,导致系统执行变慢,不仅仅影响学习效果,也影响学习进度,Spark 非常暖心地提供了可以在 windows 系统下启动本地集群的方式,这样,在不使用虚拟机的情况下,也能学习 Spark 的基本使用

1 解压缩文件

将文件 spark-3.0.0-bin-hadoop3.2.tgz 解压缩到无中文无空格的路径中

链接:https://pan.baidu.com/s/1Vi9bgI1KXxoI1zYUGybo5w 
提取码:s6w0 

2 准备数据

在 bin 目录中创建 input 目录,并添加 wc.txt 文件,文件中添加如下单词

java hello
java a a a aa

在这里插入图片描述

3 编写代码并且打包

package SparkCore.Demand

import org.apache.spark.rdd.RDD
import org.apache.spark.{SparkConf, SparkContext}

object WordCount {

  def main(args: Array[String]): Unit = {
    val sc = new SparkContext(new SparkConf().setAppName("").setMaster("local[*]"))
    val rdd: RDD[String] = sc.textFile("D:\\Spark-Windows\\bin\\input").flatMap(_.split(" "))
    rdd.map((_, 1)).reduceByKey(_ + _).collect().foreach(println)
    }}

4 命令行提交应用

spark-submit --class SparkCore.Demand.WordCount  --master local[*]  Spark-1.0-SNAPSHOT.jar

5 查看结果

在这里插入图片描述

Windows版的Spark是一个开源的分布式计算系统,它提供了高效的大规模数据处理能力。Spark可以在单个计算机上或者在集群中运行,支持多种编程语言(如Java、Scala和Python),并提供了丰富的API和工具来进行数据处理、机器学习和图计算等任务。 Spark的核心概念是弹性分布式数据集(Resilient Distributed Dataset,简称RDD),它是一个可并行操作的不可变分布式对象集合。通过RDD,Spark能够将数据分布到集群中的多个节点上并进行并行计算,从而实现高效的数据处理。 对于Windows用户,可以通过以下方式在Windows上使用Spark: 1. 使用预编译的二进制包:Spark官方提供了预编译的Windows版二进制包,可以直接下载并解压缩到本地即可使用。需要注意的是,这种方式只支持本地模式,无法在集群中进行分布式计算。 2. 使用虚拟机或容器:Windows用户可以使用虚拟机软件(如VirtualBox)或容器技术(如Docker)来创建Linux环境,在其中安装并运行Spark。这种方式需要一定的配置和管理能力,但可以实现更多的功能和更好的性能。 无论使用哪种方式,都需要先安装Java环境,并设置相关的环境变量。然后,可以根据Spark官方文档提供的指引进行具体的安装和配置。 需要注意的是,由于SparkWindows上的支持相对较弱,可能会遇到一些兼容性和性能方面的问题。建议在使用之前仔细阅读官方文档,并进行相关的测试和优化工作。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

StoicD

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值