1.在/opt目录下创建module、software文件夹
2.卸载虚拟机自带的JDK
3.重启虚拟机
4.将JDK导入到opt目录下面的software文件夹下面
5.查看软件包是否导入成功
6.解压JDK到/opt/module目录下
7.配置JDK环境变量
8.source一下/etc/profile文件,并测试JDK是否安装成功
9.将hadoop-3.1.3.tar.gz导入到opt目录下面的software文件夹下面
10.解压到/opt/module下面
11.查看是否解压成功
12.将Hadoop添加到环境变量
13.测试是否安装成功
14.查看Hadoop目录结构
15.将spark导入到opt目录下面的software文件夹下面
16.查看软件包是否导入成功
17.解压spark到/opt/module目录下
18.查看是否解压成功
19.配置环境变量
20.source一下/etc/profile文件
21.修改spark-env.sh文件
22.spark环境安装成功