Spark学习笔记之(二):Spark 提交任务流程与任务生成

Spark 提交 job 流程1.Spark 提交 job 流程2.提交脚本中的参数解析2.1 -jar 什么意思3.Excutor 怎么获取 task1.Spark 提交 job 流程2.提交脚本中的参数解析2.1 -jar 什么意思3.Excutor 怎么获取 task
摘要由CSDN通过智能技术生成


由于提交流程相对很抽象,笔者决定先从提交脚本中的常用参数讲起,再讲解提交流程的过程。

1.提交脚本中的参数解析

笔者项目使用的Spark版本为Spark-2.0.2。下图是笔者项目中实际提交Spark Streaming任务时所使用的提交脚本。具体任务相关的信息抹去了,那么本文就从该脚本中的参数配置讲起。
在这里插入图片描述

spark-submit \
	--master yarn \              		运行的模式
    --deploy-mode cluster \
    --name spark-test \          		在yarn界面看到的名字,如果不设置,那就是下面--class的值
	--driver-memory 1g \         		driver的内存
	--executor-memory 1g \       		每一个executor的内存
	--executor-cores 1 \         		executor数量
    --jars xxx.jar, xxx.jar, xxx.jar    第三方jar,比如hbase,flume、apache的一些工具jar
	--conf                              设置spark内定的参数
	--files /conf.properties \       	发送到集群的配置文件,可以直接new fileInputstream("conf.properties")来获取
	--class WordCount    \              主类
	/WordCount-20210702-1.0.0.jar \    	自己工程的jar

1.1 常用参数含义

spark-submit --help查看解释

$ bin/spark-submit --help
Usage: spark-submit [options] <app jar | python file> [app arguments]
Usage: spark-submit --kill [submission ID] --master [spark://...]
Usage: spark-submit --status [submission ID] --master [spark://...]

Options:
  --master MASTER_URL         spark://host:port, mesos://host:port, yarn, or local.
  --deploy-mode DEPLOY_MODE   Whether to launch the driver program locally ("client") or
                              on one of the worker machines inside the cluster ("cluster")
                              (Default: client).
  -
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值