第一步:
Spark官网下载相应版本的spark,http://spark.apache.org/
第二步:
解压安装spark
sudo tar -zxf spark-2.0.0-bin-hadoop2.7.tgz -C /usr/local
第三步:
重命名
cd /usr/local
sudo mv spark-2.0.0-bin-hadoop2.7 spark
第四步:
声明环境变量,并修改权限
sudo vim /etc/profile
# 添加以下内容
export SPARK_HOME=/usr/local/spark
export PATH=$SPARK_HOME/bin:$SPARK_HOME/sbin:$PATH
在local文件路径下修改权限
cd /usr/local
sudo chown -R yourusername:yourusername ./spark #其中yourusername为你的计算机名字
第五步:
修改配置文件
cd /usr/local/spark
cp ./conf/spark-env.sh.template ./conf/spark-env.sh
vim ./conf/spark-env.sh
# 添加以下内容
export SPARK_DIST_CLASSPATH=$(/path/hadoop/bin/hadoop classpath)
export JAVA_HOME=/path/jvm/jdk
#其中的path为你的hadoop和java安装路径,可以用echo $HADOOP_HOME 和echo $JAVA_HOME查看
第六步:
/usr/local/spark/bin/run-example SparkPi 2>&1 | grep "Pi is roughly"
启动Spark
usr/local/spark/sbin/start-all.sh
浏览器中输入地址:localhost:8080