Spark单点Master 三点 Worker 配置
解压spark
tar -xzvf ./spark-1.6.2-bin-hadoop2.6.tgz
进入conf文件目录重命名spark-env.sh
cd ./conf/
mv spark-env.sh.template spark-env.sh
修改配置 spark-env.sh在其中添加环境变量
export JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk-1.8.0.222.b10-0.el6_10.x86_64
export SPARK_MASTER_IP=hadoop1
export SPARK_MASTER_PORT=7077
进入conf 重命名slaves.template
mv ./slaves.tmplate slaves
在修改好的slaves 添加 worker节点
hadoop1
hadoop2
hadoop3
将配置 分发给其他节点
scp -r ./spark-1.6.2 hadoop2:/home/hadoop
scp -r ./spark-1.6.2 hadoop3:/home/hadoop
启动工作集群
./sbin/start-all.sh
启动联机版 shell