前提条件:java 8、scala已经安装完毕
而hadoop得安装是需要yarn管理或访问hdfs分布式文件集群时才需要安装,单机版可以考虑不安装hadoop,仅仅安装spark
spark官网:http://spark.apache.org/downloads.html
下载完spark-2.4.3-bin-hadoop2.6.tgz 后直接解压文件即可,
然后设置环境变量:SPARK_HOME=F:\devlopSoftwareDeploy\spark-2.4.3-bin-hadoop2.6 和PATH追加设置;%SPARK_HOME%\bin
我是都设置在用户变量中,设置到系统变量也是可以的,系统变量中需要重启才能生效。