Spark sql 谓词下推之CombineFilters及可以改进的地方

CombineFilters优化器还可以再做一些改进呀

spark sql谓词下推逻辑优化器PushDownPredicates包含了三个规则:

CombineFilters是合并Filter节点的优化器,即处理Filter+Filter的情况

CombineFilters与PushPredicateThroughJoin、PushPredicateThroughNonJoin

搭配使用

代码

代码比较简单:如果是Filter+Filter的情况,判断是否可以合并Filter节点,如果可以的话,可以合并成为一个Filter节点

​案例

select a,b from (select a,b from testdata2 where b>1) tmp
 where tmp.a>3

Analyzed logical plan:

这个sql产生的逻辑执行计划的两个filter节点本来是分开的

Optimized logical plan:

PushPredicateThroughJoin和CombineFilters两个优化器配合,完成下推合并操作

思考

CombineFilters只有在Filter中的condition都是确定性的时候才能合并:

case Filter(fc,nf@Filter(nc,grandChild))if fc.deterministic && nc.deterministic

下面这个sql,rand()<0.1 不满足确定性的条件,combineFilters 没有给做合并,但实际上a>3是可以提前做过滤的

select a,b from (select a,b from testdata2 where b>1) tmp 
where tmp.a>3 and rand()<0.1

改造代码

改造后的效果

 改造后a>3合并成功

Hey!

我是小萝卜算子

每天学习一点点

知识增加一点点

思考深入一点点

在成为最厉害最厉害最厉害的道路上

很高兴认识你

推荐阅读:

从一个sql引发的hive谓词下推的全面复盘及源码分析(上)

从一个sql引发的hive谓词下推的全面复盘及源码分析(下)

Spark sql逻辑执行计划优化器——EliminateOuterJoin【消除outerjoin】

spark sql非join情况的谓词下推优化器PushPredicateThroughNonJoin

Spark sql Expression的deterministic属性

json_tuple一定比 get_json_object更高效吗?

with as 语句真的会把查询的数据存内存嘛?

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

小萝卜算子

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值