Spark集群环境搭建
-0. 前提:配置好Hadoop和JAVA的开发环境
-1. 上传Spark和Scala压缩包(到~/software文件夹中)
-2. 解压压缩包
$ tar -zxvf ~/software/spark-1.6.1-bin-2.5.0-cdh5.3.6\(cdh版本已经编译好的\).tgz -C ~/modules/
$ tar -zxvf ~/software/scala-2.10.4.tgz -C ~/modules/
-3. 配置环境变量
$ vim ~/.bash_profile
# SCALA
export SCALA_HOME=/home/hadoop/modules/scala-2.10.4
export PATH=$PATH:$SCALA_HOME/bin
# SPARK
export SPARK_HOME=/home/hadoop/modules/spark-1.6.1-bin-2.5.0-cdh5.3.6
export PATH=$PATH:$SPARK_HOME/bin
$ source ~/.bash_profile
-4. 配置Spark相关参数项
--1. 进入Spark根目录
$ cd $SPARK_HOME
--2. 修改配置文件
$ mv conf/spark-env.sh.template conf/spark-env.sh
$ vim conf/spark-env.sh
JAVA_HOME=