参数名 | 默认值 | 参数说明 |
---|---|---|
JAVA_HOME | AVA安装目录 | |
PYSPARK_PYTHON | PySpark驱动器和worker使用的Python二进制可执行文件 | |
PYSPARK_DRIVER_PYTHON | $PYSPARK_PYTHON | |
SPARK_LOCAL_IP | 本地绑定的IP | |
SPARK_PUBLIC_DNS | Spark应用发布给其他主机的hostname | |
SPARK_MASTER_IP | Master绑定特定的IP | |
SPARK_MASTER_PORT | 7077 | 为Master指定特定端口 |
SPARK_MASTER_WEBUI_PORT | 8080 | Master web UI特定端口 |
SPARK_MASTER_OPTS | 配置Master参数,格式“-Dx=y”,可选参数参考下面列表 | |
SPARK_LOCAL_DIRS | 本地存储空间,包括map输出文件和存储在磁盘的RDDs,可以设置为以逗号分隔的不同磁盘的多个目录 | |
SPARK_WORKER_CORES | 所有cpu核 | 允许Spark应用程序使用的cpu核数 |
SPARK_WORKER_MEMORY | total memory minus 1 GB | 允许Spark应用程序使用的memory总数 |
SPARK_WORKER_PORT | Worker端口 | |
SPARK_WORKER_WEBUI_PORT | Worker webUI 端口 | |
SPARK_WORKER_INSTANCES | 1 | 每台机器上运行的Worker实例数。如果要设置这个参数,也要设置SPARK_WORKER_CORES参数以明确限制每个Worker使用Cpu数,否则每个Worker尝试使用所有Cpu核 |
SPARK_WORKER_DIR | $SPARK_HOME/work | 运行应用程序的目录,包括日志及scratch空间 |
SPARK_WORKER_OPTS | 配置Worker参数,格式“-Dx=y”,可选参数参考下面列表 | |
SPARK_DAEMON_MEMORY | 1G | 分配给Spark Master、worker守护进程的内存 |
SPARK_DAEMON_JAVA_OPTS | Spark Master、Worker守护进程的JVM选项,格式“-Dx=y” | |
SPARK_PUBLIC_DNS | Spark Master、worker公共DNS名称 |
参考文档:http://spark.apache.org/docs/1.5.0/spark-standalone.html#cluster-launch-scripts