Flink oracle cdc - Oracle Logminer CDC性能问题

最近的项目中有用到Flink Oracle CDC实时到监听数据库变化,将变化的数据sink到Kafka。Oracle CDC依赖Debezium组件解析Redo Log与Archive Log,Debezium 通过Oracle 的Logminer解析Log。在我们生产环境遇到

  1. 运行一段时间后,再也查询不到数据,直到报miss log file异常(线上环境cron job 将一小时前的archvied log压缩生成gzip文件),Flink job运行失败。

  1. 日志量比较大的时候,延迟非常大,每小时archived log size超过60G时延迟去到小时级别。

 

分析问题前,先简单介绍下Oracle LogMiner流程,

  1. start log miner


begin
    DBMS_LOGMNR.START_LOGMNR(STARTSCN => scn, ENDSCN => end scn,
                             OPTIONS => DBMS_LOGMNR.DICT_FROM_ONLINE_CATALOG + DBMS_LOGMNR.CONTINUOUS_MINE +
                                        DBMS_LOGMNR.SKIP_CORRUPTION);
end;

Start LogMiner,添加scn 对应的日志文件到待解析列表

77ab1ed8b67d1ab7f6c7f2332fe68ad3.png

 

参数说明:

start scn:scn = start scn + 1, LogMiner 根据scn定位对应的日志文件,日志文件分为redo log与archived log,每个日志文件对应数据一条记录,其中 first_change#(这个日志文件最小的scn 值),next_change# (下一个日志文件的开始scn值)。[first_change#,next_change#)前闭后开。

下一个日志文件的 first_change#与上一个的日志文件的next_change# 值相等。

LogMiner 根据scn处在[first_change#,next_change#)区间定位到日志文件(redo

log或者archvied log文件)。

日志文件包含很多block。每个block会有对应的start scn索引信息,方便我们根据scn 定位要解析的日志块,因此LogMiner就可以只解析少量的日志块,而不是整个日志文件(这块非常类似于HBase基于rowid查询数据逻辑)。

 

end scn: LogMiner解析到end scn定位等日志块。

CONTINUOUS_MINE: 自动添加对应的日志文件到待解析列表

 

Redo LOG:


select *
from v$log
    where first_change# <= scn and next_change# > scn;
c6f5f2409f8ff262b12ee9d37d04733a.png

 

Archvied LOG:


select *
from v$archived_log A
where first_change# <= scn and next_change# > scn
 AND A.ARCHIVED = 'YES' AND A.STATUS = 'A' ;

 

  1. 查询V$LOGMNR_CONTENTS触发LogMiner解析


SELECT SCN,
       SQL_REDO,
       OPERATION_CODE,
       TIMESTAMP,
       XID,
       CSF,
       TABLE_NAME,
       SEG_OWNER,
       OPERATION,
       USERNAME,
       ROW_ID,
       ROLLBACK,
       RS_ID
FROM V$LOGMNR_CONTENTS
WHERE SCN > start scn
  AND SCN <= end scn
  AND ((OPERATION_CODE IN (6, 7, 36) OR
        (OPERATION_CODE = 5 AND USERNAME in ('RMSPRD') AND INFO NOT LIKE 'INTERNAL DDL%' AND
         SEG_OWNER in ('Schema'))) OR (OPERATION_CODE IN (1, 2, 3) AND SEG_OWNER in ('RMSPRD')
                                           AND TABLE_NAME in ('table_name')));
749824c7c27de6814cbd7a041388ddd8.png

 

参数说明:

OPERATION_CODE:

public static final int INSERT = 1;

public static final int DELETE = 2;

public static final int UPDATE = 3;

public static final int DDL = 5;

public static final int ROLLBACK = 36;

 

查询数据:

事物:开启,提交,回滚事物

DDL:监听的schema与table的DDL操作事件

数据操作:监听的table的数据变化(增加,删除,修改,save point 记录回滚。save point记录回滚,回滚的每条记录都会有一条记录,OPERATION_CODE与正向的操作一样,只是ROLLBACK=1)。

 

start scn 上次一次返回的数据的最后记录的scn值(last processed scn),再继续查询。

 

问题一,因为start scn是上次一次返回的数据的最后记录的scn值(last processed scn),仅查询我们监听表的事件;end scn是会根据一定规则进行计算,end scn与 start scn最大区间默认不超过50w,超过50w后end scn不再继续增加。在我们线上有遇到50w的区间查不到数据,我们也尝试增大到500w,同样也有查不到数据情况,因为没有查到数据,start scn不会往前递进,而且end scn与start scn range已经达到配置到最大值,end scn也不会往前递进,这样就会一直查询这范围的数据,而且一直没有我们需要的数据,直到logminer 报miss log file异常。

为啥start scn是取上次一次返回的数据的最后记录的scn值(last processed scn)而不是上一次的end scn值,代码中注释如下:

0d7576fa54e460e6a7606bbec2d5b7dd.jpeg

大概就是说LGWR写缓存的数据还没有刷新到日志文件,logminer没有查询到数据,并不能说明当前range真的是没有数据返回,有可能到end scn的事件还没有被刷新到日志文件,下一次查询可能返回我们需要的数据。

 

修复如下:

如果对应scn 范围的文件是archived log文件,查询没有数据返回了,就表明这范围内没有我们需要的数据,start scn = end scn;

如果对应scn 范围的文件是redo log文件,且当的文件正在写入,查询没有数据返回了,不能说明明这范围内没有我们需要的数据,有可能LGBR还没有刷新到文件中,我们需要修改start scn 上次一次返回的数据的最后记录的scn值(last processed scn),再继续查询,直到end scn对应的日志文件不是当前写入状态,或者对应的日志文件被 archive。

 

75bc2a092f0d650c019e945213ebcddb.png

 

问题二:日志太大,logminer性能问题

LogMiner 最大的问题在于其性能, 他运行在 Oracle 内部, 并且运行在日志落地之后, 不可避免地需要消耗数据库的算力去完成工作, 为了降低这个不在主流程的进程的资源消耗, Oracle 对 LogMiner 做了非常严格的资源限制, 每个 LogMiner 进程, 他的资源消耗都不能超过 1 个 cpu 核心, 在大多数场景下, 这个将 LogMiner 的日志解析速度限制在 1w 条每秒以下, 在一些严肃的场合, 这个速度是远远不够的, Oracle 是一个事务数据库, 一个大的Update, 可能会带来数十万上百万的更新, 在这种情况下, 每秒 1w 的解析速度会使得下游延迟增大到数分钟级别, 更糟糕的是, 在数据库本身负载较高的情况下, 由于 LogMiner 的解析与数据库共享负载, 会让解析速度进一步下降。

在工程上, 这个问题也有办法可以解决, LogMiner 本质上只是一个日志解析工具, 如果开发者在外部自己管理LogMiner 进程, 将不同的日志通过不同的 LogMiner 进程并行解析, 理论上可以通过消耗更多的 CPU, 来实现更快的解析, 但是这个也导致了数据库的资源被进一步消耗, 最终速度是否达到预期并不是想当然的事情。

为了解决 LogMiner 与数据库争夺资源的问题, 还有一个异步解析的方案, 首先通过 Oracle 的机制, 将 redo log 异步传输到另外一台没有业务压力的 Oracle 实例上, 然后在另外一台机器上开启并发解析。

 

并发LogMiner解析方案:

主要分为三模块,

模块一:一个线程负责scn range 切分

模块二:获取切分的scn range,开启LogMiner线程并发的解析对应scn range 事件

模块三:顺序的处理获取到的事件

841a280f60916a2167d41547adf6ce7d.jpeg

 

 

流程描述:

 

  1. scn range 切分线程

scn range,(start scn-end scn],end scn = start scn + batch range,根据scn = start scn + 1 定位日志文件,如果end scn > 这个日志文件的next_change-1, end scn=next_change-1

 

885af73b0b071fd97d90e9a3729908ee.png

 

2. 顺序log 处理控制线程

获取切换分的scn range对象,添加到待LogMiner解析队列,同时也添加到待处理的log队列

 

  1. LogMiner线程池

获取待LogMiner队列的数据,LogMiner线程获取分片的startScn, endScn,开启LogMiner,判断是否需要持续LogMiner,查询V$LOGMNR_CONTENTS数据

0460cd4e75bd8985c8af8287190c1567.png

 

  1. LOG event 处理线程

fa727232f7517f68634b7cab54f5c1d1.png

 

  1. 动态调整LogMiner线程数量

3bdf0e82c37901593624f46b9d1871d4.png

 

  1. 针对redo log分片策越调整

a38cbb1d60ef521ed8c6adf9f0802af3.png

 

目前我们配置logminer 3-15线程数,大部分情况延迟都是在秒级;每小时日志size 去到100G,延迟也能控制在10分钟

 

 

 

  • 6
    点赞
  • 15
    收藏
    觉得还不错? 一键收藏
  • 28
    评论
Flink CDC Oracle是基于FlinkOracle Change Data Capture(CDC)功能,用于实时采集Oracle数据库的数据变更。它使用了debezium框架,并利用Oracle数据库自带的logminer技术来实现数据采集。 在配置Flink CDC Oracle时,需要注意的是,如果Oracle的dbName配置的是SID而不是service_name,可能会导致连接失败。解决这个问题的方法是将jdbc链接字符串改为jdbc:oracle:thin:@localhost:1521:sid的方式。你可以通过API方式或Flink SQL方式手动指定这个链接字符串,例如使用基于API的方式可以设置properties.put("database.url","jdbc:oracle:thin:@localhost:1521:sid")。 总结来说,Flink CDC Oracle是用于实时采集Oracle数据库数据变更的工具,它基于Flink并使用debezium和Oraclelogminer技术实现。在配置时需要注意正确设置链接字符串,特别是当dbName配置为SID时。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* [flink1.14.3 cdc jar包](https://download.csdn.net/download/weixin_46661903/84678566)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 50%"] - *2* *3* [Flink Oracle CDC Connector源码解读](https://blog.csdn.net/IT_xhf/article/details/130364090)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 28
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值