Spark官网下载地址
http://spark.incubator.apache.org/downloads.html
将Spark上传到虚拟机中,并解压到想要的位置
tar -xvf spark-2.4.0-bin-hadoop2.7.tar -C /opt/server/
进入到conf目录
cd /opt/server/spark-2.4.0-bin-hadoop2.7/conf/
复制spark的环境配置文件
cp spark-env.sh.template spark-env.sh
然后编辑配置文件
vim spark-env.sh
在里面插入以下内容
export SCALA_HOME=/opt/server/scala-2.13.10
export JAVA_HOME=/opt/server/jdk1.8.0_361
export SPARK_HOME=/opt/server/spark-2.4.0-bin-hadoop2.7
export SPARK_MASTER_IP=192.168.217.101
export SPARK_EXECUTOR_MEMORY=512M
export SPARK_WORKER_MEMORY=1G
将spark.executor.memory
和spark.worker.memory
的值调整为较小的值,以避免资源不足或者整个集群在运行多个任务时变得缓慢(根据自己电脑的情况)
进入到sbin目录,start-all