说明:单机版的Spark的机器上只需要安装JDK即可,其他诸如Hadoop、Zookeeper(甚至是scala)之类的东西可以一概不安装。
集群版搭建:Spark2.2集群部署和配置
一、安装JDK1.8
1、下载JDK1.8,地址
2、将下载的文件保存在 /home/qq/java下,进行解压,解压后文件夹为 jdk1.8.0_171:
tar -zxvf jdk-8u171-linux-i586.tar.gz
3、配置JDK环境,输入命令:
sudo vim ~/.bashrc
在文件末尾加入:
export JAVA_HOME=/home/qq/java/jdk1.8.0_171
export JRE_HOME=${JAVA_HOME}/jre
export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib
export PATH=${JAVA_HOME}/bin:$PATH
使用命令:wq保存退出,执行命令生效:
source ~/.bashrc
4、测试JDK
输入命令:
java -ve