Spark配置—Yarn模式

本文档详细介绍了如何在Yarn模式下配置Spark,包括搭建HA模式,修改配置文件,启动Zookeeper,HDFS,Yarn,以及Spark Master和Worker。通过一系列命令和URL检查,确保Spark在Yarn集群上成功运行并查看应用状态。
摘要由CSDN通过智能技术生成

Step 1:
可以尝试先搭建HA模式,然后Yarn模式只是在这个基础上做了一些修改而已
http://blog.csdn.net/ymf827311945/article/details/73822832

Step 2:
在node11节点上执行命令:

vi ~/.bash_profile
source ~/.bash_profile

添加如下属性:

export HADOOP_INSTALL=/opt/apps/hadoop/hadoop-2.6.0

这里写图片描述

Step 3:
在node11节点上执行命令

vi /opt/apps/spark/spark-1.6.0-bin-hadoop2.6/conf/spark-env.sh

添加如下属性:

export HADOOP_CONF_DIR=$HADOOP_INSTALL/etc/hadoop
export YARN_CONF_DIR=$HADOOP_INSTALL/etc/hadoop
export SPARK_HOME=/opt/apps/spark/spark-1.6.0-bin-hadoop2.6
export SPARK_JAR=/opt/apps/spark/spark-1.6.0-bin-hadoop2.6/lib/spark-assembly-1.6.0-hadoop2.6.0.jar
export PATH=$SPARK_HOME/bin:$PATH

这里写图片描述

Step 4:
在node11节点上执行命令,进行文件的分发

scp -r /opt/apps/spark/spark-1.6.0-bin-hadoop2.6/conf/spark-env.sh node12:/opt/apps/spark/spark-1.6.0-bin-hadoop2.6/conf/
scp -r /opt/apps/spark/spark-1.6.0-bin-hadoop2.6/conf/spark-env.sh node13:/opt/apps/spark/spark-1.6.0-bin-hadoop2.6/conf/

这里写图片描述

Step 5:
在node12节点上执行命令,修改文件:

vi /opt/apps/spark/spark-1.6.0-bin-hadoop2.6/conf/spark-env.sh

将下面的属性注释:

#export SPARK_MASTER_IP=node11

这里写图片描述

Step 6:
分别在三个节点执行命令,启动zookeeper

zkServer.sh start
zkServer.sh status

这里写图片描述
这里写图片描述
这里写图片描述

Step 7:
在node11节点上执行命令, 启动HDFS和Yarn

start-all.sh

这里写图片描述
在node12节点上单独启动Resourcemanager

yarn-daemon.sh start resourcemanager

这里写图片描述

Step 8:
打开浏览器,输入URL进行查看——HDFS
192.168.80.11:50070
192.168.80.12:50070
这里写图片描述
这里写图片描述

打开浏览器,输入URL进行查看——Yarn
192.168.80.11:8088
192.168.80.12:8088
这里写图片描述
这里写图片描述

Step 9:
在node11节点上执行命令——启动Spark

cd /opt/apps/spark/spark-1.6.0-bin-hadoop2.6
./sbin/start-all.sh

这里写图片描述
在node12节点执行命令——启动master

cd /opt/apps/spark/spark-1.6.0-bin-hadoop2.6
./sbin/start-master.sh

这里写图片描述

Step 10:
打开浏览器,输入URL进行查看
http://192.168.80.11:8080/
http://192.168.80.12:8080/
这里写图片描述
这里写图片描述

Step 11:
Yarn集群Client模式

cd /opt/apps/spark/spark-1.6.0-bin-hadoop2.6
./bin/spark-submit --class org.apache.spark.examples.SparkPi --master yarn-client --executor-memory 1G --num-executors 1 ./lib/spark-examples-1.6.0-hadoop2.6.0.jar 100

这里写图片描述

Step 12:
打开浏览器,输入URL进行查看
http://192.168.80.11:8088/cluster/apps/RUNNING
这里写图片描述

Step 13:
查看结果:
这里写图片描述

Step 14:
Yarn集群Cluster模式
在node11节点执行命令:

cd /opt/apps/spark/spark-1.6.0-bin-hadoop2.6
./bin/spark-submit --class org.apache.spark.examples.SparkPi --master yarn-cluster --executor-memory 1G --num-executors 1 ./lib/spark-examples-1.6.0-hadoop2.6.0.jar  100

这里写图片描述

Step 15:
打开浏览器,输入URL进行查看
http://192.168.80.11:8088/cluster/apps/RUNNING
在运行一段时间后, 点击FINISHED—–找到自己刚才运行的Application,然后点击如下图中的History
这里写图片描述
然后点击如下图中的logs
这里写图片描述
然后点击如下图中的stdout : Total file length is 24 bytes.
这里写图片描述
最后就可以看到运行的结果
这里写图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值