安装spark版本2.44下载链接
这里使用的是Pre-built的版本,意思就是已经编译了好了,下载来直接用就好,Spark也有源码可以下载,但是得自己去手动编译之后才能使用。下载完成后将文件进行解压(可能需要解压两次),最好解压到一个盘的根目录下,并重命名为Spark
,简单不易出错。在hadoop添加完环境变量后还是会出现如下报错,
此时需要在hadoop bin 目录下添加一个文件点击下载,然后再打开cmd执行spark-shell,如下运行成功。
scala版本2.12下载链接
下载得到Scala的msi文件后,可以双击执行安装。安装成功后,默认会将Scala的bin目录添加到PATH系统变量中去(如果没有,和JDK安装步骤中类似,将Scala安装目录下的bin目录路径,添加到系统变量PATH中),为了验证是否安装成功,开启一个新的cmd窗口,输入scala然后回车,如果能够正常进入到Scala的交互命令环境则表明安装成功。如下图所示:
hadoop版本2.7.7下载链接(连接用了国内的镜像文件,下载比较快)
下载并解压到指定目录,然后到环境变量部分设置HADOOP_HOME为Hadoop的解压目录,并再环境变量path中添加hadoop bin 目录。