搭建Spark On Yarn 集群

本文档详细介绍了如何搭建Spark Standalone集群,并演示了如何将Spark应用提交到YARN集群运行。首先,在YARN集群的一个节点上安装Spark并配置spark-env.sh文件,指定Hadoop相关属性。接着,启动HDFS和YARN。最后,提交Spark应用,并通过YARN的webUI查看应用日志以获取运行结果。
摘要由CSDN通过智能技术生成

一、搭建Spark Standalone集群

  1. 参看《搭建SecureDRT
  2. 修改Spark环境配置文件
    (1)Spark On YARN模式的搭建比较简单,仅需要在YARN集群的一个节点上安装Spark即可,该节点可作为提交Spark应用程序到YARN集群的客户端。Spark本身的Master节点和Worker节点不需要启动。
    (2)使用此模式需要修改Spark配置文件spark-env.sh,添加Hadoop相关属性,指定Hadoop与配置文件所在目录
    在这里插入图片描述
    在这里插入图片描述
export JAVA_HOME=/usr/local/jdk1.8.0_162
export SPARK_MASTER_HOST=master
export SPARK_MASTER_PORT=7077
export HADOOP_HOME=/usr/local/hadoop-2.7.7
export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop

3.存盘退出后,执行命令:

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值