flink以增量+全量的方式更新广播状态

背景

flink在实现本地内存和db同步配置表信息时,想要做到类似于增量(保证实时性) + 全量(保证和DB数据一致)的效果,那么我们如何通过flink的广播状态+外部定时器定时全量同步的方式来实现呢?

实现增量+全量的效果

package wikiedits.schedule;


import java.util.List;
import java.util.Map;

import org.apache.commons.lang3.StringUtils;
import org.apache.flink.api.common.state.BroadcastState;
import org.apache.flink.api.common.state.MapState;
import org.apache.flink.api.common.state.MapStateDescriptor;
import org.apache.flink.api.common.typeinfo.BasicTypeInfo;
import org.apache.flink.api.java.typeutils.ListTypeInfo;
import org.apache.flink.streaming.api.functions.co.KeyedBroadcastProcessFunction;
import org.apache.flink.util.Collector;

//处理函数
public class BroadcastStatePlusSchedulerFunction extends KeyedBroadcastProcessFunction<String, String, String, String> {

    // 键值分区状态
    private final MapStateDescriptor<String, List<String>> mapStateDesc =
            new MapStateDescriptor<>("items", BasicTypeInfo.STRING_TYPE_INFO, new ListTypeInfo<>(String.class));

    // 广播状态
    private final MapStateDescriptor<String, String> ruleStateDescriptor = new MapStateDescriptor<>(
            "RulesBroadcastState", BasicTypeInfo.STRING_TYPE_INFO, BasicTypeInfo.STRING_TYPE_INFO);



    @Override
    public void processBroadcastElement(String value, Context ctx, Collector<String> out) throws Exception {
        // 1.增量消息更新广播状态
        BroadcastState<String, String> broadcastState = ctx.getBroadcastState(ruleStateDescriptor);
        broadcastState.put(value, value);
        // 2.全量更新,判断广播状态和DB配置表在本地缓存的配置项是否一致,比如如果广播状态记录少了,使用本地缓存中的记录来更新下广播状态
        for (Map.Entry<String, String> entry : StaticLoadUtil.getConfigCache().asMap().entrySet()) {
            String broadcastValue = broadcastState.get(entry.getKey());
            if(!StringUtils.equals(entry.getValue(), broadcastValue)){//如果不相等,那么以DB缓存中的为准

            }
        }
        // 3.自此,广播状态和DB配置表的状态几乎一致,不过由于他们的比较只发生于收到广播元素,所以我们可以在凌晨的时候故意从db中找出几条记录发送kafka消息到这个广播状态来进行触发比较,当然这里也可以当收到某个元素时覆盖掉flink的广播状态
    }

    @Override
    public void processElement(String value, ReadOnlyContext ctx, Collector<String> out) throws Exception {
        // 键值分区状态
        final MapState<String, List<String>> state = getRuntimeContext().getMapState(mapStateDesc);
        // 广播状态
        for (Map.Entry<String, String> entry : ctx.getBroadcastState(ruleStateDescriptor).immutableEntries()) {

        }
    }


}


// 外部定时器实现
package wikiedits.schedule;

import java.util.concurrent.Executors;
import java.util.concurrent.ScheduledExecutorService;
import java.util.concurrent.TimeUnit;

import com.google.common.cache.Cache;
import com.google.common.cache.CacheBuilder;

/**
 * 静态类定时加载DB配置表到本地内存中
 */
public class StaticLoadUtil {

    // 定时任务执行器
    private static transient ScheduledExecutorService scheduledExecutorService;

    public static final Cache<String, String> configCache =
            CacheBuilder.newBuilder().initialCapacity(50).maximumSize(500).build();

    // 通过定时执行器定时同步本地缓存和DB配置表
    static {
        scheduledExecutorService = Executors.newScheduledThreadPool(10);
        scheduledExecutorService.scheduleWithFixedDelay(() -> {
            // 2.1 定时任务更新本地内存配置项
            // List<ConfigEntity> configList = DBManager.SELECTSQL.getConfigs();
            // for(ConfigEntity entity : configList){
            configCache.put("key", "value");
            // }
            // 2.2 更新本地变量threshold的值
            // threshold = DBManager.SELECTSQL.getConfig("threshold");
        }, 0, 100, TimeUnit.SECONDS);
    }

    /**
     * 获取本地缓存
     */
    public static Cache<String, String> getConfigCache() {
        return configCache;
    }


}

总结:

1.在处理广播元素的时候,除了更新广播状态之外,还要对比下广播状态和DB配置表在flink的本地缓存的数据,如果不一致,需要打印告警日志或者采取更新等措施

2.由于全量广播状态和DB配置表在flink的本地缓存的数据对比是在接收到某个广播元素的时候才进行,所以我们可以多余多发送一些相同的广播元素来触发对比

3.通过这种方式,广播状态就可以实现增量(实时性) + 全量(准确性) 的结果

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Flink CDC(Change Data Capture)可以实现先全量增量的数据同步。具体实现方式如下: 1. 全量同步:通过 Flink CDC 连接到 MySQL 数据库,并将 MySQL 数据库表中的所有数据作为初始状态,写入到 Flink 的数据源中。 2. 增量同步:Flink CDC 可以监控 MySQL 数据库的 binlog,并将 binlog 中的增量数据实时同步到 Flink 的数据源中。 具体实现步骤如下: 1. 创建 MySQL 数据库的连接器: ``` CREATE TABLE mysql_table ( id INT, name STRING, age INT, PRIMARY KEY (id) NOT ENFORCED ) WITH ( 'connector' = 'mysql-cdc', 'hostname' = 'localhost', 'port' = '3306', 'username' = 'root', 'password' = '123456', 'database-name' = 'test', 'table-name' = 'test_table', 'debezium.snapshot.locking.mode' = 'none' ); ``` 2. 创建 Flink 数据源: ``` DataStreamSource<RowData> source = env.addSource( new MySqlBinlogSourceFunction( "mysql-cdc", "test", "test_table", new JdbcSplitOptions.JdbcSplitOptionBuilder().build(), new MySqlSourceOptions.MySqlSourceOptionBuilder().build(), new MySqlCDCOptions.MySqlCDCOptionBuilder().build() ) ).setParallelism(1); ``` 3. 定义数据处理逻辑: ``` Table table = tableEnv.fromDataStream(source, Schema.newBuilder() .column("id", DataTypes.INT()) .column("name", DataTypes.STRING()) .column("age", DataTypes.INT()) .build() ); Table result = table.groupBy($("id")) .select($("id"), $("name").concat("_").concat($("age")).as("name_age")); ``` 4. 输出结果: ``` DataStream<Tuple2<Boolean, Row>> stream = tableEnv.toRetractStream(result, Row.class); stream.print(); ``` 这样就可以实现先全量增量的数据同步了。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值