135、Spark核心编程进阶之SparkConf、spark-submit以及spark-defaults.conf

默认的配置属性

spark-submit脚本会自动加载conf/spark-defaults.conf文件中的配置属性,并传递给我们的spark应用程序
加载默认的配置属性,一大好处就在于,我们不需要在spark-submit脚本中设置所有的属性
比如说,默认属性中有一个spark.master属性,所以我们的spark-submit脚本中,就不一定要显式地设置--master,默认就是local
spark配置的优先级如下: SparkConf、spark-submit、spark-defaults.conf
如果想要了解更多关于配置属性的信息,可以在spark-submit脚本中,使用--verbose,打印详细的调试信息

使用spark-submit设置属性

虽然说SparkConf设置属性的优先级是最高的,但是有的时候咱们可能不希望在代码中硬编码一些配置属性,否则每次修改了参数以后
还得去代码里修改,然后得重新打包应用程序,再部署到生产机器上去,非常得麻烦

对于上述的情况,我们可以在代码中仅仅创建一个空的SparkConf对象,比如: val sc = new SparkContext(new SparkConf())

然后可以在spark-submit脚本中,配置各种属性的值,比如

这里的spark.shuffle.spill属性,我们本来如果是在代码中,SparkConf.set("spark.shuffle.spill", "false")来配置的
此时在spark-submit中配置了,不需要更改代码,就可以更改属性,非常得方便,
尤其是对于spark程序的调优,格外方便,因为调优说白了,就是不断地调整各种各样的参数,然后反复跑反复试的过程

spark的属性配置方式

spark-shell和spark-submit两个工具,都支持两种加载配置的方式
一种是基于命令行参数,比如上面的--master,spark-submit可以通过--conf参数,接收所有spark属性
另一种是从conf/spark-defaults.conf文件中加载,其中每一行都包括了一个key和value
比如spark.executor.memory 4g

所有在SparkConf、spark-submit和spark-defaults.conf中配置的属性,在运行的时候,都会被综合使用
直接通过SparkConf设置的属性,优先级是最高的,会覆盖其余两种方式设置的属性
其次是spark-submit脚本中通过--conf设置的属性
最后是spark-defaults.conf中设置的属性

通常来说,如果你要对所有的spark作业都生效的配置,放在spark-defaults.conf文件中,只要将spark-defaults.conf.template拷贝成那个文,然后在其中编辑即可
然后呢,对于某个spark作业比较特殊的配置,推荐放在spark-submit脚本中,用--conf配置,比较灵活
SparkConf配置属性,有什么用呢?也有用,在eclipse中用local模式执行运行的时候,那你就只能在SparkConf中设置属性了

这里还有一种特例,就是说,在新的spark版本中,可能会将一些属性的名称改变,那些旧的属性名称就变成过期的了
此时旧的属性名称还是会被接受的,但是新的属性名称会覆盖掉旧的属性名称,并且优先级是比旧属性名称更高的

举例来说
shuffle reduce read操作的内存缓冲块儿
spark 1.3.0: spark.reducer.maxMbInFlight
spark 1.5.0: spark.reducer.maxSizeInFlight

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值