(1)解压安装包到/usr/local下。
tar -zxf /opt/spark-1.6.3-bin-hadoop2.6.tgz -C /usr/local |
(2)进入/usr/local/spark-1.6.3-bin-hadoop2.6/conf。
cd /usr/local/spark-1.6.3-bin-hadoop2.6/conf |
3)配置spark-env.sh文件,复制spark-env.sh.template文件,重命名为spark-env.sh。
配置spark-env.sh文件
Java的路径:
JAVA_HOME=/usr/java/jdk1.8.0_151
hadoop的路径:
HADOOP_CONF_DIR=/usr/local/hadoop-2.6.5/etc/hadoop
spark主节点的ip:
SPA