Spark
整理思路是(1)在windows上下载解压spark,(2)配置SPARK_HOME的环境变量以及path,(3)cmd进入命令行并输入spark-shell,这时候便会出现spark需要的scala的版本
1. 下载spark包 http://spark.apache.org/downloads.html
2.解压,我是解压到了 D:\spark-2.2.3
3. 配置文件不做修改,直接配置环境变量
SPARK_HOME 值为D:\spark-2.2.3 path中的值为 D:\spark-2.2.3\bin
测试:
cmd中输入spark-shell
如果出现上图黄框中的内容表示开启成功。 第二个黄框中的spark session就是过去的spark sql。
*从上图我们还看到了spark图形下面有句话: Using Scala version 2.11.8 。。。。
这意味着,如果我们想再安装scala,那么最好安装2.11.8 版本。