1.Windows下配置和安装
(1) java jdk的配置
(2) 编辑器推荐使用 intellij IDEA;eclipse maven配置相对较难
(3) spark-2.0.0-bin-hadoop2.6 就是它的配置,环境变量etc ,注意spark版本号和Hadoop的
(4) 然后编辑器下scala 插件,若网不好,就直接从网址下来,再把插件插进去
(5) 基于sbt 开发,下载sbt
(6) bulit.sbt 配置好spark
(7) 愉快的开发,时间主要花费在下载上,针对每一个步骤,网上查找配置方法
2.Linux 下配置和安装
(1) 使用命令直接把jdk 和spark-2.0.0-bin-hadoop2.6 下载下来
(2) 把(1)步骤下载的东西环境变量配置好
(3) 就完成单机spark的配置