1. 解压缩到/home/hadoop/
- spark-2.2.0
- scala-2.11.7
2. 配置环境变量/etc/profile
- 为避免与hadoop默认启动命令同名,spark/sbin中的start-all.sh和stop-all.sh分别改为start-spark-all.sh和stop-spark-all.sh
- scala写入bin
- spark写入bin和sbin
3. 修改spark配置文件 spark-env.sh
- 由模板spark-env.sh.template改名而来
- 文件尾行写入以下配置参数
export JAVA_HOME=/usr/java/jdk1.8.0_144
export SCALA_HOME=/home/hadoop/scala-2.11.7
export HADOOP_HOME=/home/hadoop/hadoop-2.9.0
export HADOOP_CONF_DIR=/home/hadoop/hadoop-