spark配置文件介绍

spark配置文件介绍
spark有很多参数,然后会有不同的配置文件,这里做一下介绍,也供自己以后查询。

1.spark properties:这个可以控制应用程序的绝大部分属性。并且可以通过SparConf对象挥着Java系统属性进行配置;

2.环境变量(Environment variable):这个可以分别对每台机器单独进行相应设置,比如IP。这个可以在每台机器的spark-env.sh脚本中设置;

3.日志:所有日志相关的属性可以在log4j.properties文件中进行设置。

下面是对这三种属性设定的详细说明。

一、spark properties

可以通过一下三种方式设定:

1.通过SparkConf代码中直接指定:

val conf=new SparkConf()

.setMater(“local”)

.setAppName(“CountingSheep”)

.(“spark.executor.memory”,“1g”)

val sc=new SparkContext(conf)

2.通过spark-submit指定:

3.通过文件spark-defaults.conf指定。

假如三个地方中都指定了相同的参数,则判定顺序为:优先级最高的是通过SparkConf设定的,然后是spark-submit设定的,最后是spark-defaults.conf指定的。

二、环境变量

通过文件spark-env.sh设定

三、日志配置

通过log4j.properties指定,可以设置日志输出信息的级别以及日志路径。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值