在初学Spark时,启动虚拟机,配置集群非常麻烦,而且对硬件要求较高,占用大量的系统资源。于是我们可以采用Spark提供的在Windows系统下启动本地集群的方式。
Scala下载
https://www.scala-lang.org/download/all.html
当前使用的Spark版本为3.0.0,默认采用的Scala编译版本为2.12,我下载的版本为2.12.11
开始配置环境变量(此电脑右击,选择属性==>>高级系统设置==>>环境变量)
在环境变量中搭建环境变量,在系统变量中双击Path
复制scala的bin目录路径
在Path中添加该路径
测验是否安装成功
打开cmd(Win+R中输入cmd)
输入Scala,出现下面就代表成功了!
解压缩文件
需要先下载 spark-3.0.0-bin-hadoop3.2.tgz文件
https://archive.apache.org/dist/spark/spark-3.0.0/
将文件解压缩到无中文无空格的路径中。
启动本地环境
执行解压缩文件路径下bin目录中的spark-shell.cmd文件,启动Spark本地环境
双击spark-shell.cmd后出现如下表示成功
命令行提交应用
从bin目录进入cmd
输入:spark-submit --class org.apache.spark.examples.SparkPi --master local[2] …/examples/jars/spark-examples_2.12-3.0.0.jar 10