Spark版本:2.3.1 (最新版)
hadoop版本:2.7
jdk版本:1.8.0
scala版本:官网最新版
第一步:首先安装jdk
一定要注意安装路径,我是安装在C盘,因为spark 环境搭建路径不能出现空格。
设置环境变量:
首先是JAVA_HOME 路径:C:\Java\jdk1.8.0_121
然后是CLASSPATH 路径: .;%JAVA_HOME%\lib\dt.jar;%JAVA_HOME%\lib\tools.jar;
测试:CMD 输入java & javac 不报错,就说明你安装好啦!
接下来安装hadoop啦!
我的解压路径: