Spark----Cluster模式(standalone和Spark on Yarn)的安装配置

本文介绍了如何安装配置Spark的Standalone集群模式和Spark on Yarn集群模式。在Standalone模式下,Spark自身管理资源调度,适合纯Spark应用,需要注意本地文件的处理。在Spark on Yarn模式中,资源管理由YARN负责,适用于已有MR应用的集群。文中还提及了Standalone模式下job的FIFO队列机制以及在不同节点上运行Spark-shell的注意事项。
摘要由CSDN通过智能技术生成

Cluster模式

standalone,Yarn,Messos(国内很少用)
说明

  • 如果现有的集群框架中存在MR的相关应用,同时相关的MR无法转换为Spark应用的,集群选型为Spark On Yarn;
  • 如果现有的集群框架中只有Spark应用,那么建议采用spark Standalone模式;
  • spark可以运行在不同的计算引擎上,所以集群模式安装分不同种情况:
    说明:spark的Standalone模式和Spark on Yarn占比较多。

spark的standalone集群模式安装

【standalone:由spark自己来完成资源的管理与调度】
standalone:主从架构 ---- >master worker

  1. 复制三个文件,并修改:
cp spark-env.sh.template spark-env.sh

添加以下内容,master节点是Master(主) 注意:"="附近无空格:

export JAVA_HOME=/home/wyc/apps/jdk
export SPARK_MASTER_HOST=master
export SPARK_MASTER_PORT=7077
cp slaves.template slaves

添加工作节点(Worker 从节点),如下:

slave1
slave2
slave3

(注意:
需要注释或删除原内容:localhost,否则运行start-slaves.sh会提示错误,但无影响)
cp spark-defaults.conf.template spark-defaults.conf

留着备用
  1. 远程scp复制spark安装目录至其它节点:slave1、slave2和slave3,并创建软链接
scp -r ~/apps/spark-2.1.2-bin-hadoop2.7/ wyc@slave1:/home/wyc/apps/
scp -r ~/apps/spark-2.1.2-bin-hadoop2.7/ wyc@slave2:/home/wyc/apps/
scp -r ~/apps/spark-2.1.2-bin-hadoop2.7/ wyc@slave3:/home/wyc/apps/

ln -s spark-2.1.2-bin-hadoop2.7 spark    //
  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值