一. 安装JDK
由于之前的集群安装的是jdk1.7的版本, 所以这里操作相对会麻烦一点
-
安装jdk1.8版本
注意:要修改族和组 -
修改配置文件
因为之前安装过jdk1.7,如果还是把$PATH,写在前面,不会生效
export JAVA_HOME=/usr/java/jdk1.8.0_181 export PATH=$JAVA_HOME/bin:$PATH
-
分发给其他虚拟机
-
之前安装jdk时在” /usr/bin”目录下有一个java的连接:
-
进入他指向的连接地址:
-
执行:
ln -sf /usr/java/jdk1.8.0_181/bin/java /usr/bin/java
-
修改后进入”/usr/bin”查看:
-
修改这一步的原因是:
spark集群会默认从这个路径下查询jdk的版本 -
修改hadoop的配置文件
/opt/hjf/hadoop/etc/hadoop/hadoop-env.sh
修改为现在的版本号:# export JAVA_HOME=/usr/java/jdk1.7.0_67 export JAVA_HOME=/usr/java/jdk1.8.0_181
至此, jdk版本更改完成, 接下来正式安装spark
一. Spark安装
node01\node02\node03三台安装spark集群
node04只用于任务提交