摘要:本文主要讲了Spark几种不同的执行模式以及其原理
一、执行模式
提交脚本常见的语法:
- ./bin/spark-submit \
- --class <main-class>
- --master <master-url> \
- --deploy-mode <deploy-mode> \
- --conf <key>=<value> \
- ... # other options
- <application-jar> \
- [application-arguments]
脚本说明:
(1)—-class: 主类,即main函数所有的类
(2)—- master : master的URL,见下面的详细说明。
(3)—-deploy-mode:client和cluster2种模式
(4)—-conf:指定key=value形式的配置
下面对各种模式做一个说明:
1、local
本地跑程序,一般用来测试。可以指定线程数