-
下载spark安装包
下载地址spark官网:http://spark.apache.org/downloads.html
这里我们使用 spark-2.0.2-bin-hadoop2.7版本. -
新建安装目录
/usr/local -
解压
tar -zxvf spark-2.0.2-bin-hadoop2.7.tgz -
重命名
mv spark-2.0.2-bin-hadoop2.7 spark -
修改配置文件
vi spark-env.sh 修改文件(先把spark-env.sh.template重命名为spark-env.sh) -
#配置java环境变量
export JAVA_HOME= /usr/local/jdk
#指定spark老大Master的IP
export SPARK_MASTER_HOST=Hadoop01
#指定spark老大Master的端口
export SPARK_MASTER_PORT=7077
#woker 使用1g和1个核心进行任务处理
export SPARK_WORKER_CORES=1
export SPARK_WORKER_MEMORY=1g
vi slaves 修改文件(先把slaves.template重命名为slaves)
hado