将spark2.4.5的压缩包解压到指定目录,并改名为spark:
sudo tar -zxvf spark-2.4.5-bin-without-hadoop.tgz -C /home/china/data
sudo mv spark-2.4.5-bin-without-hadoop/ spark
添加权限,并查看该目录下有没有spark的安装文件:
sudo chown -R china:china spark
ls | grep spark
在spark 目录下拷贝spark-env.sh.template 文件 并去掉.template后缀。同时在此文件第一行添加如下所示 export xxxx 代码。
cd ./spark
cp ./conf/spark-env.sh.template ./conf/spark-env.sh
cd ./conf
vim spark-env.sh
export SPARK_DIST_CLASSPATH=$(装Hadoop的路径/bin/hadoop classpath)
在 spark 目录下运行如下命令,也可使用注释掉的那行命令直接过滤出结果:
cd /home/china/data/spark
bin/run-example SparkPi
# bin/run-example SparkPi 2>&1 | grep "Pi is"
看到有Pi的输出说明安装成功,如图: