? Index
Step1:安装JDK
Step2:安装Python3
Step3:安装Hadoop
Step4:安装Scala
Step5:安装Spark
? Step1:安装JDK
Spark的job都是JVM(Java Virtual Machine)的进程,所以在安装Spark之前需要确保已经安装好了JDK(Java Developer Kit)。
在终端Shell输入:java -version
若返回某个Java的版本,代表已经OK了;
不然,需要自己上网下载安装JDK,方法如下:
1)登陆Oracle官网的下载页面:https://www.oracle.com/technetwork/java/javase/downloads/jdk12-downloads-5295953.html
2)选择自己电脑版本的安装包下载并且安装
3)找到自己的JDK根目录
JDK根目录:/Library/Java/JavaVirtualMachines/jdk-12.0.1.jdk/Contents/Home (这个很重要,后面也会用到的)
(一般说上面这里,不然自己打开Finder-设备-Macintosh Hd-资源库-Java—去找)
4)打开终端Shell
如果你是第一次配置,请输入
touch .bash_profile
创建一个.bash_profile的隐藏配置文件否则,输入
open -e .bash_profile
编辑现有环境变量
5)打开编辑窗口,输入如下配置,然后保存关闭该窗口
JAVA_HOME= JDK根目录
PATH=$JAVA_HO