【二十】Spark on YARN

Spark部署(standalone模式)

--master官网介绍

在Spark中支持4种运行模式:

1.Local:通常在开发时使用,可以直接在IDEA中运行,本机电脑不用部署环境。--master("local[2]")。

2.Standalone:这是Spark自带的,如果一个集群是Standalone,需要在多台机器上同时部署Spark环境。改一个机器的配置要把所有机器都同步一下。

3.YARN:生成上常使用。统一使用YARN进行整个集群作业(MR,Spark)的资源调度。只需要在一台机器上部署Spark,在该机器上提交作业,只需要修改该机器的Spark配置。(所以只需要部署YARN集群就行了,通常部署Hadoop的时候就部署了YARN集群)

不管使用什么模式,Spark应用程序的代码是一样的,只需要在提交作业的时候通过--master参数来指定运行的模式即可。

yarn可以使用--deploy-mode来设置使用client或者cluster模式。cluster的地址会根据HADOOP_CONF_DIR或者YARN_CONF_DIR的配置来寻找。

对于YARN来说Spark应用程序仅仅是一个客户端而已。

client模式:Driver运行在client端(部署Spark并且提交作业的那台机器)。Driver跑在client端,它申请到资源以后还要作业分发到集群上运行(client会和请求到的Container进行通行来完成作业的调度和执行),client(部署Spark并且提交作业的那台机器)和集群之间的联系是不能断开的,client不能退出的。日志信息会在控制台输出,便于测试

cluster:Driver运行在Application Master中。只要把作业提交后,client就可以关掉,作业已经在YARN上运行了,没有任何影响。日志在终端看不到,因为日志信息输出在Driver上,只能通过yarn logs -applicationId application_id来查看日志

提交作业到YARN上运行的方式:

启动zookeeper

cd /app/zookeeper/bin

./zkServer.sh start

启动hadoop

cd /app/hadoop/hadoop-2.9.0/sbin

./start-all.sh

查看是否启动好了yarn集群

jps

设置HADOOP_CONF_DIR或者YARN_CONF_DIR

cd /app/spark/spark-2.2.0-bin-2.9.0/conf

vi spark-env.sh

HADOOP_CONF_DIR=/app/hadoop/hadoop-2.9.0/etc/hadoop

提交作业到YARN上

cd /app/spark/spark-2.2.0-bin-2.9.0

./bin/spark-submit --class org.apache.spark.examples.SparkPi --master yarn --executor-memory 1G --num-executors 2 /app/spark/spark-2.2.0-bin-2.9.0/examples/jars/spark-examples_2.11-2.2.0.jar 10 

--master yarn就是client模式,如果是cluster模式用 yarn-cluster

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Spark on YARN是一种常用的Spark运行模式,它可以在Hadoop YARN集群上运行。Spark on YARN支持两种提交任务的方式,即YARN client模式和YARN cluster模式。在YARN client模式下,Spark驱动程序运行在客户端上,而在YARN cluster模式下,Spark驱动程序运行在YARN集群上。 在使用Spark on YARN时,可以使用以下命令提交作业: ``` ./spark-submit --master yarn --deploy-mode cluster --class org.apache.spark.examples.SparkPi ../lib/spark-examples-xx.jar 100 ``` 这个命令将以YARN cluster模式提交一个Spark作业,其中`--master yarn`表示使用YARN作为Spark的主节点,`--deploy-mode cluster`表示以集群模式运行作业,`--class org.apache.spark.examples.SparkPi`指定了作业的入口类,`../lib/spark-examples-xx.jar`是作业的jar包路径,`100`是作业的参数。 另外,还可以使用以下命令以YARN client模式提交作业: ``` ./spark-submit --master yarn-client --class org.apache.spark.examples.SparkPi ../lib/spark-examples-xx.jar 100 ``` 这个命令将以YARN client模式提交一个Spark作业,其中`--master yarn-client`表示使用YARN作为Spark的主节点,并将驱动程序运行在客户端上。 通过以上命令,可以在Spark on YARN上成功提交和运行Spark作业。\[1\]\[2\]\[3\] #### 引用[.reference_title] - *1* *2* *3* [Spark on Yarn详解](https://blog.csdn.net/WuBoooo/article/details/109479311)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control_2,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值