精通Flink项目优化(五.FlinkSQL 调优)

1. Group Aggregate 优化

1.1 开启 MiniBatch(提升吞吐)
MiniBatch 是微批处理,原理是缓存一定的数据后再触发处理,以减少对 State 的访问,从而提升吞吐并减少数据的输出量。MiniBatch 主要依靠在每个 Task 上注册的 Timer 线程来触发微批,需要消耗一定的线程调度性能。
MiniBatch 默认关闭,开启方式如下:

// 初始化 table environment
TableEnvironment tEnv = ...
// 获取 tableEnv 的配置对象
Configuration configuration = tEnv.getConfig().getConfiguration();
// 设置参数:
// 开启 miniBatch
configuration.setString("table.exec.mini-batch.enabled", "true");
// 批量输出的间隔时间
configuration.setString("table.exec.mini-batch.allow-latency", "5 s");
// 防止 OOM 设置每个批次最多缓存数据的条数,可以设为 2 万条
configuration.setString("table.exec.mini-batch.size", "20000");

使用场景:

微批处理通过增加延迟换取高吞吐,如果有超低延迟的要求,不建议开启微批处理。通
常对于聚合的场景,微批处理可以显著的提升系统性能,建议开启。

注意事项:

  • 目前,key-value 配置项仅被 Blink planner 支持。
  • 1.12 之前的版本有 bug,开启 miniBatch,不会清理过期状态,也就是说如果设置
    状态的 TTL,无法清理过期状态。

1.2 开启 LocalGlobal(解决常见数据热点问题)
LocalGlobal优化将原先的Aggregate分成Local+Global两阶段聚合(MapReduce 模型中的 Combine+Reduce 处理模式)。第一阶段在上游节点本地攒一批数据进行聚合(localAgg),并输出这次微批的增量值(Accumulator)。第二阶段再将收到的 Accumulator 合并(Merge),得到最终的结果(GlobalAgg)。LocalGlobal 本质上能够靠 LocalAgg 的聚合筛除部分倾斜数据,从而降低 GlobalAgg的热点,提升性能。
结合下图理解 LocalGlobal 如何解决数据倾斜的问题
在这里插入图片描述

  • 未开启 LocalGlobal 优化,由于流中的数据倾斜,Key为红色的聚合算子实例需要处理更多的记录,这就导致了热点问题。
  • 开启 LocalGlobal 优化后,先进行本地聚合,再进行全局聚合。可大大减少GlobalAgg的热点,提升性能。

LocalGlobal 开启方式:

  1. LocalGlobal 优化需要先开启 MiniBatch,依赖于 MiniBatch 的参数。
  2. table.optimizer.agg-phase-strategy: 聚合策略。默认 AUTO,支持参数 AUTO、TWO_PHASE(使用 LocalGlobal 两阶段聚合)、ONE_PHASE(仅使用 Global 一阶段聚合)。
// 初始化 table environment
TableEnvironment tEnv = ...
// 获取 tableEnv 的配置对象
Configuration configuration = tEnv.getConfig().getConfiguration();
// 设置参数:
// 开启 miniBatch
configuration.setString("table.exec.mini-batch.enabled", "true");
// 批量输出的间隔时间
configuration.setString("table.exec.mini-batch.allow-latency", "5 s");
// 防止 OOM 设置每个批次最多缓存数据的条数,可以设为 2 万条
configuration.setString("table.exec.mini-batch.size", "20000");
// 开启 LocalGlobal
configuration.setString("table.optimizer.agg-phase-strategy", "TWO_PHASE");

判断是否生效:

观察最终生成的拓扑图的节点名字中是否包含 GlobalGroupAggregate 或LocalGroupAggregate。

适用场景

LocalGlobal 适用于提升如 SUM、COUNT、MAX、MIN 和 AVG 等普通聚合的性能,以及解决这些场景下的数据热点问题。

注意事项:

  • 需要先开启 MiniBatch
  • 开启 LocalGlobal 需要 UDAF 实现 Merge 方法。

1.3 开启 Split Distinct(解决 COUNT DISTINCT 热点问题)
LocalGlobal 优化针对普通聚合(例如 SUM、COUNT、MAX、MIN 和 AVG)有较好的效果,对于 COUNT DISTINCT 收效不明显,因为 COUNT DISTINCT 在 Local 聚合时,对于DISTINCT KEY的去重率不高,导致在 Global 节点仍然存在热点。之前,为了解决 COUNT DISTINCT 的热点问题,通常需要手动改写为两层聚合(增加按 Distinct Key 取模的打散层)。从 Flink1.9.0 版本开始,提供了 COUNT DISTINCT 自动打散功能,不需要手动重写。
Split Distinct 和 LocalGlobal 的原理对比参见下图。
在这里插入图片描述
举个栗子:统计一天的 UV

SELECT day, COUNT(DISTINCT user_id)
FROM T
GROUP BY day

如果手动实现两阶段聚合:
第一层聚合: 将 Distinct Key 打散求 COUNT DISTINCT。
第二层聚合: 对打散去重后的数据进行 SUM 汇总。

SELECT day, SUM(cnt)
FROM (
 SELECT day, COUNT(DISTINCT user_id) as cnt
 FROM T
 GROUP BY day, MOD(HASH_CODE(user_id), 1024)
)
GROUP BY day

Split Distinct 开启方式(默认不开启,使用参数显式开启):

  • table.optimizer.distinct-agg.split.enabled: true,默认 false。
  • table.optimizer.distinct-agg.split.bucket-num: Split Distinct优化在第一层聚
    合中,被打散的bucket数目。默认1024。
// 初始化 table environment
TableEnvironment tEnv = ...
// 获取 tableEnv 的配置对象
Configuration configuration = tEnv.getConfig().getConfiguration();
// 设置参数:
// 开启 Split Distinct
configuration.setString("table.optimizer.distinct-agg.split.enabled", "true");
// 第一层打散的 bucket 数目
configuration.setString("table.optimizer.distinct-agg.split.bucket-num", "1024");

判断是否生效
观察最终生成的拓扑图的节点名中是否包含 Expand 节点,或者原来一层的聚合变成了两层的聚合。
适用场景

使用 COUNT DISTINCT,但无法满足聚合节点性能要求。

注意事项:

目前不能在包含 UDAF 的 Flink SQL 中使用 Split Distinct 优化方法。
拆分出来的两个 GROUP 聚合还可参与 LocalGlobal 优化。
从 Flink1.9.0 版本开始,提供了 COUNT DISTINCT 自动打散功能,不需要手动重写

1.4 改写为 AGG WITH FILTER 语法(提升大量 COUNT DISTINCT 场景性能)
在某些场景下,可能需要从不同维度来统计 UV,如 Android 中的 UV,iPhone 中的
UV,Web 中的 UV 和总 UV,这时,可能会使用如下 CASE WHEN 语法。

SELECT
day,
COUNT(DISTINCT user_id) AS total_uv,
COUNT(DISTINCT CASE WHEN flag IN ('android', 'iphone') THEN user_id ELSE 
NULL END) AS app_uv,
COUNT(DISTINCT CASE WHEN flag IN ('wap', 'other') THEN user_id ELSE NULL 
END) AS web_uv
FROM T
GROUP BY day

在这种情况下,建议使用 FILTER 语法, 目前的 Flink SQL 优化器可以识别同一唯一键上的不同 FILTER 参数。如,在上面的示例中,三个 COUNT DISTINCT 都作用在 user_id列上。此时,经过优化器识别后,Flink 可以只使用一个共享状态实例,而不是三个状态实例,可减少状态的大小和对状态的访问。
将上边的CASE WHEN替换成FILTER后:

SELECT
day,
COUNT(DISTINCT user_id) AS total_uv,
COUNT(DISTINCT user_id) FILTER (WHERE flag IN ('android', 'iphone')) AS app_uv,
COUNT(DISTINCT user_id) FILTER (WHERE flag IN ('wap', 'other')) AS web_uv
FROM T
GROUP BY day

2. TopN优化

2.1 使用最优算法
当 TopN 的输出是非更新流(例如 Source),TopN 只有一种算法 AppendRank。当TopN 的输出是更新流时(例如经过了 AGG/JOIN 计算 ),TopN 有 2 种算法,性能从高到低分别是:UpdateFastRank 和 RetractRank。算法名字会显示在拓扑图的节点名字上。
在这里插入图片描述
UpdateFastRank :最优算法
需要具备 2 个条件:

  1. 输入流有 PK(Primary Key)信息,例如 Group BY AVG。
  2. 排序字段的更新是单调的,且单调方向与排序方向相反。例如,ORDER BY COUNT/COUNT_DISTINCT/SUM(正数)DESC。

如果要获取到优化 Plan,则您需要在使用 ORDER BY SUM DESC 时,添加 SUM 为正数的过滤条件。

  • AppendFast:结果只追加,不更新
  • RetractRank:普通算法,性能差

适用场景

不建议在生产环境使用该算法。请检查输入流是否存在 PK 信息,如果存在,则可进行UpdateFastRank 优化。

2.2 无排名优化(解决数据膨胀问题)
TopN语法:

SELECT *
FROM (
 SELECT *,
 ROW_NUMBER() OVER ([PARTITION BY col1[, col2..]]
 ORDER BY col1 [asc|desc][, col2 [asc|desc]...]) AS rownum
 FROM table_name)
WHERE rownum <= N [AND conditions]

数据膨胀问题:
根据 TopN 的语法,rownum 字段会作为结果表的主键字段之一写入结果表。但是这可能导致数据膨胀的问题。例如,收到一条原排名 9 的更新数据,更新后排名上升到 1,则从1到9的数据排名都发生变化了,需要将这些数据作为更新都写入结果表。这样产生数据膨胀,导致结果表因为收到了太多的数据而降低更新速度。
适用方式:
TopN 的输出结果不需显示rownum值,仅需在最终前端显式时进行1次排序,极大地减少输入结果表的数据量。只需在外层查询中将 rownum 字段裁剪掉

// 最外层的字段,不写 rownum
SELECT col1, col2, col3
FROM (
SELECT col1, col2, col3
 ROW_NUMBER() OVER ([PARTITION BY col1[, col2..]]
 ORDER BY col1 [asc|desc][, col2 [asc|desc]...]) AS rownum
FROM table_name)
WHERE rownum <= N [AND conditions]

在无rownum的场景中,对于结果表主键的定义需要特别小心。如果定义有误,会直接导致TopN结果的不正确。 无rownum场景中,主键应为TopN上游GROUP BY节点的KEY列表。
2.3 增加 TopN 的 Cache 大小
TopN 为了提升性能有一个 State Cache 层,Cache 层能提升对 State 的访问效率。
TopN 的 Cache 命中率的计算公式为:
cache_hit = cache_size*parallelism/top_n/partition_key_num
举个栗子:Top100 配置缓存 10000 条,并发 50,当 PatitionBy 的 key 维度较大时,例如10 万级别时,Cache 命中率只有 10000*50/100/100000=5%,命中率会很低,导致大量的请求都会击中 State(磁盘),性能会大幅下降。因此当 PartitionKey 维度特别大时,可以适当加大 TopN 的CacheS ize,相对应的也建议适当加大 TopN 节点的Heap Memory。
使用方式:

// 初始化 table environment
TableEnvironment tEnv = ...
// 获取 tableEnv 的配置对象
Configuration configuration = tEnv.getConfig().getConfiguration();
// 设置参数:
// 默 认 10000 条 , 调 整 TopN cahce 到 20 万 , 那 么 理 论 命 中 率 能 达
200000*50/100/100000 = 100%
configuration.setString("table.exec.topn.cache-size", "200000");

2.4 PartitionBy 的字段中要有时间类字段
例如每天的排名,要带上 Day 字段。否则 TopN 的结果到最后会由于 State ttl 有错乱。

2.5 高效去重方案
由于 SQL 上没有直接支持去重的语法,还要灵活的保留第一条或保留最后一条。因此使用SQL的 ROW_NUMBER OVER WINDOW 功能来实现去重语法。去重本质上是一种特殊的 TopN。
2.5 保留首行的去重策略(Deduplicate Keep FirstRow)
保留 KEY 下第一条出现的数据,之后出现该 KEY 下的数据会被丢弃掉。因为 STATE 中只存储了 KEY 数据,所以性能较优
举个栗子:

SELECT *
FROM (
 SELECT *,
 ROW_NUMBER() OVER (PARTITION BY b ORDER BY proctime) as rowNum
 FROM T
)
WHERE rowNum = 1;

将 T 表按照 b 字段进行去重,并按照系统时间保留第一条数据。Proctime在这里是源表 T 中的一个具有 Processing Time 属性的字段。如果按照系统时间去重,也可以将 Proctime 字段简化 PROCTIME()函数调用,可以省略 Proctime 字段的声明。
2.6 保留末行的去重策略(Deduplicate Keep LastRow)
保留 KEY 下最后一条出现的数据。保留末行的去重策略性能略优于 LAST_VALUE 函数,
举个栗子:

SELECT *
FROM (
 SELECT *,
 ROW_NUMBER() OVER (PARTITION BY b, d ORDER BY rowtime DESC) as 
rowNum
 FROM T
)
WHERE rowNum = 1;

将 T 表按照 b 和 d 字段进行去重,并按照业务时间保留最后一条数据。Rowtime 在这里是源表 T 中的一个具有 Event Time 属性的字段。

3.高效的内置函数

3.1 使用内置函数替换自定义函数
Flink 的内置函数在持续的优化当中,请尽量使用内部函数替换自定义函数。使用内置
函数好处:

  1. 优化数据序列化和反序列化的耗时。
  2. 新增直接对字节单位进行操作的功能。

3.2 LIKE 操作注意事项

  • 如果需要进行 StartWith 操作,使用 LIKE ‘xxx%’。
  • 如果需要进行 EndWith 操作,使用 LIKE ‘%xxx’。
  • 如果需要进行 Contains 操作,使用 LIKE ‘%xxx%’。
  • 如果需要进行 Equals 操作,使用 LIKE ‘xxx’,等价于 str = ‘xxx’。
  • 如果需要匹配 _ 字符,请注意要完成转义 LIKE ‘%seller/id%’ ESCAPE ‘/’。_在 SQL中属于单字符通配符,能匹配任何字符。如果声明为 LIKE ‘%seller_id%’,则不单会匹配 seller_id 还会匹配 seller#id、sellerxid 或 seller1id 等,导致结果错误。

3.3 慎用正则函数(REGEXP)
正则表达式是非常耗时的操作,对比加减乘除通常有百倍的性能开销,而且正则表达式在某些极端情况下可能会进入无限循环,导致作业阻塞。建议使用 LIKE。正则函数包括:

  • REGEXP
  • REGEXP_EXTRACT
  • REGEXP_REPLACE

3.4 指定时区
本地时区定义了当前会话时区 id。当本地时区的时间戳进行转换时使用。在内部,带有本地时区的时间戳总是以 UTC 时区表示。但是,当转换为不包含时区的数据类型时(例如TIMESTAMP, TIME 或简单的 STRING),会话时区在转换期间被使用。为了避免时区错乱的
问题,可以参数指定时区。

// 初始化 table environment
TableEnvironment tEnv = ...
// 获取 tableEnv 的配置对象
Configuration configuration = tEnv.getConfig().getConfiguration();
// 设置参数:
// 指定时区
configuration.setString("table.local-time-zone", "Asia/Shanghai");

3.5设置参数总结
总结以上的调优参数:

// 初始化 table environment
TableEnvironment tEnv = ...
// 获取 tableEnv 的配置对象
Configuration configuration = tEnv.getConfig().getConfiguration();
// 设置参数:
// 开启 miniBatch
configuration.setString("table.exec.mini-batch.enabled", "true");
// 批量输出的间隔时间
configuration.setString("table.exec.mini-batch.allow-latency", "5 s");
// 防止 OOM 设置每个批次最多缓存数据的条数,可以设为 2 万条
configuration.setString("table.exec.mini-batch.size", "20000");
// 开启 LocalGlobal
configuration.setString("table.optimizer.agg-phase-strategy", "TWO_PHASE");
// 开启 Split Distinct
configuration.setString("table.optimizer.distinct-agg.split.enabled", "true");
// 第一层打散的 bucket 数目
configuration.setString("table.optimizer.distinct-agg.split.bucket-num", "1024");
// TopN 的缓存条数
configuration.setString("table.exec.topn.cache-size", "200000");
// 指定时区
configuration.setString("table.local-time-zone", "Asia/Shanghai");
  • 0
    点赞
  • 12
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值