1. 下载spark程序依赖包: spark-1.6.1-bin-hadoop2.6.tgz,可以下载需要的版本。
http://spark.apache.org/downloads.html
注意选择2的时候,要选基于hadoop的。
2. 下载winutils.exe文件,这个网上一搜就可以了,下载后在本地新建hadoop目录,在该目录下建bin目录,然后把winutils.exe文件放到这个目录下。
3. 配置环境变量,首先配置spark的环境变量,在系统变量中新建SPARK_HOME变量名,值为spark-1.6.1-bin-hadoop2.6.tgz解压后的目录,我的是:C:\spark-1.5.0-bin-hadoop2.4。然后在path系统变量中添加: