参数名 | 参数说明 |
---|---|
–master | 如spark://host:port, mesos://host:port, yarn, yarn-cluster,yarn-client, local |
–deploy-mode | Client或者master,默认是client |
–class | 应用程序的主类 |
–name | 应用程序的名称 |
–jars | 逗号分隔的本地jar包,包含在driver和executor的classpath下 |
–packages | 包含在driver和executor的classpath下的jar包逗号分隔的”groupId:artifactId:version”列表 |
–exclude-packages | 用逗号分隔的”groupId:artifactId”列表 |
–repositories | 逗号分隔的远程仓库 |
–py-files | 逗号分隔的”.zip”,”.egg”或者“.py”文件,这些文件放在python app的PYTHONPATH下面 |
–files | 逗号分隔的文件,这些文件放在每个executor的工作目录下面 |
–conf | 固定的spark配置属性,默认是conf/spark-defaults.conf (k=v) |
–properties-file | 加载额外属性的文件 |
–driver-memory | Driver内存,默认1G |
–driver-java-options | 传给driver的额外的Java选项 |
–driver-library-path | 传给driver的额外的库路径 |
–driver-class-path | 传给driver的额外的类路径 |
–executor-memory | 每个executor的内存,默认是1G |
–proxy-user | 模拟提交应用程序的用户 |
–driver-cores | Driver的核数,默认是1。这个参数仅仅在standalone集群deploy模式下使用 |
–supervise | Driver失败时,重启driver。在mesos或者standalone下使用 |
–verbose | 打印debug信息 |
–total-executor-cores | 所有executor总共的核数。仅仅在mesos或者standalone下使用 |
–executor-core | 每个executor的核数。在yarn或者standalone下使用 |
–driver-cores | Driver的核数,默认是1。在yarn集群模式下使用 |
–queue | 队列名称。在yarn下使用 |
–num-executors | 启动的executor数量。默认为2。在yarn下使用 |
spark-submit参数
最新推荐文章于 2024-01-17 15:40:14 发布