最权威的官网:http://spark.apache.org/
--master // master 的地址,提交任务到哪里执行,例如 spark://host:port, yarn, local
--deploy-mode // 在本地 (client) 启动 driver 或在 cluster 上启动,默认是 client
--class // 应用程序的主类,仅针对 java 或 scala 应用
--name // 应用程序的名称
--jars // 用逗号分隔的本地 jar 包,设置后,这些 jar 将包含在 driver 和 executor 的 classpath 下
--packages // 包含在driver 和executor 的 classpath 中的 jar 的 maven 坐标
--exclude-packages // 为了避免冲突 而指定不包含的 package
--repositories // 远程 repository
--conf PROP=VALUE
// 指定 spark 配置属性的值,
// 例如 -conf spark.executor.extraJavaOptions="-XX:MaxPermSize=256m"
--properties-file // 加载的配置文件,默认为 conf/spark-defaults.conf
--driver-memory // Driver内存,默认 1G
--driver-java-options // 传给 driver 的额外的 Java 选项
--driver-library-path // 传给 driver 的额外的库路径
--driver-class-path // 传给 driver 的额外的类路径
--driver-cores // D