flink开发遇到的问题-kafka source offset

flink开发遇到的问题-kafka source offset

背景:

flink运行程序提交偏移量,每次启动的时候(不恢复状态 (ckp 或者sp)从Kafka保存的偏移量恢复程序)发现总是会从earliest,latest消费,并未按照预想的那样从kafka保存的偏移量接着消费

 KafkaSourceBuilder<T> sourceBuilder = KafkaSource.<T>builder()
                .setBootstrapServers(host)
                .setTopics(topic).setGroupId(group)
                .setStartingOffsets(OffsetsInitializer.latest())
                .setProperty("security.protocol", "SASL_PLAINTEXT")
                .setProperty("sasl.mechanism", "GSSAPI")
                .setProperty("sasl.kerberos.service.name", "kafka")
                .setProperty("sasl.jaas.config", "com.sun.security.auth.module.Krb5LoginModule required\n" +
                        "\tuseKeyTab=true storeKey=true\n" +
                        "\tkeyTab=\""+kerberosKeyTab+"\"\n" +
                        // "\tkeyTab=\"krb5.keytab\"\n" +
                        "\tprincipal=\""+principal+"\";")
                .setDeserializer(serialize)
                .setProperty("max.poll.records", "1000000");

问题产生原因

setStartingOffsets(OffsetsInitializer.latest()) 消息会每次都从最新的消费 ,并不是设置的第一次从最新的消费

解决办法

setStartingOffsets(OffsetsInitializer.committedOffsets(OffsetResetStrategy.valueOf(offset.toUpperCase())))

KafkaSource.builder()
    // Start from committed offset of the consuming group, without reset strategy
    .setStartingOffsets(OffsetsInitializer.committedOffsets())
    // Start from committed offset, also use EARLIEST as reset strategy if committed offset doesn't exist
    .setStartingOffsets(OffsetsInitializer.committedOffsets(OffsetResetStrategy.EARLIEST))
    // Start from the first record whose timestamp is greater than or equals a timestamp (milliseconds)
    .setStartingOffsets(OffsetsInitializer.timestamp(1657256176000L))
    // Start from earliest offset
    .setStartingOffsets(OffsetsInitializer.earliest())
    // Start from latest offset
    .setStartingOffsets(OffsetsInitializer.latest());

解决问题中间的临时处理办法

每次重启任务的时候从最后一次ckp启动 但是遇到了修改程序的并行度 无法从ckp恢复 只能保持并行度不变消费完历史数据,再重新设置并行度重新消费,而且每次都要找ckp的路径 ,发生表更的时候多是在半夜 ,人容易急躁 ,所以极为不便,

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
Flink作为一个分布式流处理框架,可以集成Kafka并实现指定offset的消费。下面是使用Flink消费Kafka指定offset的简单步骤: 首先,确保你的项目依赖中已经引入了FlinkKafka的相关库。 在Flink应用程序中,你需要创建一个消费者并指定要消费的Kafka话题。使用`FlinkKafkaConsumer`类来创建一个Kafka消费者对象,并在构造函数中指定Kafka的连接地址、话题和反序列化器等相关信息。例如: ```java Properties properties = new Properties(); properties.setProperty("bootstrap.servers", "localhost:9092"); properties.setProperty("group.id", "my-consumer-group"); FlinkKafkaConsumer<String> kafkaConsumer = new FlinkKafkaConsumer<>("my-topic", new SimpleStringSchema(), properties); ``` 然后,你可以使用`setStartFromSpecificOffsets()`方法来指定要从哪个offset开始消费。`setStartFromSpecificOffsets()`方法接受一个`Map<KafkaTopicPartition, Long>`参数,其中`KafkaTopicPartition`表示Kafka话题的分区,`Long`表示要指定的offset。例如,假设你要指定从话题`my-topic`的第一个分区的偏移量10开始消费,那么你可以这样设置: ```java Map<KafkaTopicPartition, Long> specificOffsets = new HashMap<>(); specificOffsets.put(new KafkaTopicPartition("my-topic", 0), 10L); kafkaConsumer.setStartFromSpecificOffsets(specificOffsets); ``` 最后,将Kafka消费者对象传递给Flink的`addSource()`方法来创建数据源。例如: ```java DataStream<String> dataStream = env.addSource(kafkaConsumer); ``` 在这之后,你可以继续处理和转换数据流,实现你的业务逻辑。 以上就是使用Flink Kafka消费者指定offset消费的简单过程。通过指定offset,你可以从指定位置开始消费Kafka数据,而不是从最新或最早的offset开始消费。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值