1、下载地址
https://archive.apache.org/dist/spark/spark-2.1.0/
2、通过FTP上传至Linux服务器某目录文件下
3、解压缩
tar -zxvf spark-2.1.0-bin-without-hadoop.tgz.gz
4、重命名
mv spark-2.1.0-bin-without-hadoop spark
5、配置环境变量
vi /etc/profile
export SPARK_HOME=/usr/local/software/spark
export PATH=$PATH:$SPARK_HOME/bin
source /etc/profile
6、配置spark
cd $SPARK_HOME
cp spark-env.sh.template spark-env.sh
vi spark-env.sh
7、先启动hadoop,在启动spark
cd $HADOOP_HOME/sbin
./sart-all.sh
cd $SPARK_HOME/sbin
./start-all.sh
8、测试Spark是否安装成功
cd $SPARK_HOME/bin
run-example SparkPi
9、检查WebUI,浏览器打开http://192.168.61.138:8080