配置spark之前,需要有jdk8,Hadoop环境
目录
一.安装IDE
http://scala-ide.org/download/sdk.html
版本号最好对应上
也有scala的插件,但是不建议这样装
直接解压下载好的安装包
二.安装scala
step1:下载
https://www.scala-lang.org/download/2.12.3.html
msi和zip都可以
zip直接就是源码,下载解压之后就可以啦
msi有一个安装引导助手,如下图:
双击scala-2.11.8.msi安装包,启动安装程序,
点击next
中间会有一步选择安装位置的,这里要注意,路径里不要用空格,不要有空格,不要有空格
step2:配置环境
①系统变量里增加一项:
②在Path中增加一项:
要注意啊,上面写了bin,下面就不要写
step3:测试
三.安装Spark
官网传送门:https://spark.apache.org/downloads.html
由于我已经配置好了hadoop2.8.5,就选择了这个版本
有一个问题需要注意,就是尽管本地已经装了hadoop,但是,还是选用上图的版本。下图的这个版本配置起来会出现各种各样的问题,比较坑。要特别注意!!
本地2.8.5的hadoop和2.4.6的spark是可以一起用的
首先下载安装包