sparkconf修改配置不生效

sparkconf修改配置不生效

场景:

统一的数据处理平台,在日常工作中,需要初始化sparkcontext,这个context为考虑绝大多数用户的需求,所有的配置必须要考虑通用性,如设置输出格式统一为gzip,以达到节省空间的效果等。

这种情况下会带来问题,如果有用户有特定的需求,比如某用户不想把输出文件进行gzip压缩,这时需要针对此需求进行定制化功能开发。

第一次尝试:

笔者首先尝试,在初始化sparkconf后,再进行sparkconf中值的修改。

初始化代码示例如下:

 

初始化之后进行sparkconf中的值代码示例如下(对于不想压缩的用户,可以在用户逻辑中修改是否压缩为false):

当代码修改为以上时,运行时不生效的。也就是说,输出文件依然进行了gzip压缩。

于是去官网查看资料发现如下,大意是,可以修改配置在运行时,但是,这只是针对于sparksql的。

对于sparkcore,则无这方面的说明。

遇事不决,翻看源码

在sparkcontext源码(2.4.3)中,我们发现了关于sparkconf的说明。大家应该一看便明白,大意是:初始化context时,使用的是conf的副本,配置在运行时是不能被修改的。所以,我们在初始化后,再修改conf的值,是不生效的。

其实也比较容易理解,context初始化时已经把策略指定完毕,如果在运行中,告诉context之前要压缩的,现在不压缩了,这肯定是无法做到的。至于上面,sparksql可以动态修改conf的值,个人理解是sql是动态的,每次执行都会返回一个结果,用户可以针对此次执行,去修改配置。

那我们一开始的需求使用这种方式是行不通的。只能采用“曲线救国”的方法了。具体实现会在下一篇文章给出。

此次事件的反思:要从源码中和官网上寻找答案,不能想当然。

笔者水平有限,如有不正确的地方欢迎指正。

 

  • 2
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值