Flink 自定义source 读取redis 实现 RichParallelSourceFunction

Flink自定义source 需要实现 SourceFunction(并行度1) ,ParallelSourceFunction(多并行),RichParallelSourceFunction(多并行)。这里使用的RichParallelSourceFunction(多并行)。实时取消费redis队列。

代码实现:

//主类
public class CreOdsMain {

    public static void main(String[] args) throws Exception {
        final StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();

        //添加数据源
        DataStreamSource<String> sourceRm7896Top0 = env.addSource(new ReidsSourceFunctionRm7896Top0());

        sourceRm7896Top0.print();

        env.execute();
    }

}


//自定义source类
public class ReidsSourceFunctionRm7896Top0 extends RichParallelSourceFunction<String> {

    private JedisPool jedispool = null;
    private Boolean isRunning = true;
    private Logger logger = LoggerFactory.getLogger(ReidsSourceFunctionRm7896Top0.class);

    @Override
    public void open(Configuration parameters) throws Exception {
        jedispool = RedisPoolCache.getPool("rm7896");
    }

    @Override
    public void run(SourceContext<String> ctx) throws Exception {
        Jedis jedis = null;
        while (isRunning){
            try {
                jedis = jedispool.getResource();
                jedis.select(12);
                List<String> brpop = jedis.brpop(0, "newsapp_top_0");
                ctx.collect(brpop.get(1));
            }catch (Exception e){
                logger.error("Exception:{}.", ExceptionUtils.getFullStackTrace(e));
            }finally {
                try {
                    if (jedis!=null) {
                        jedis.close();
                    }
                } catch (Exception q) {
                    logger.error("Exception:{}.", ExceptionUtils.getFullStackTrace(q));
                }
            }
        }
    }

    @Override
    public void cancel() {
        isRunning = false;
    }
}

 

  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
好的,下面是一个简单的示例,展示了如何在 Flink实现一个支持状态检查点的 Kafka 消费者,并将消费到的偏移量保存到 Redis 中: ```java public class KafkaConsumerFunction implements SourceFunction<String>, CheckpointedFunction { private transient KafkaConsumer<String, String> kafkaConsumer; private transient Jedis jedis; private final String kafkaTopic; private final String kafkaBootstrapServers; private final String redisHost; private final int redisPort; private long lastCommittedOffset = 0L; private transient ListState<Long> checkpointedOffset; public KafkaConsumerFunction(String kafkaTopic, String kafkaBootstrapServers, String redisHost, int redisPort) { this.kafkaTopic = kafkaTopic; this.kafkaBootstrapServers = kafkaBootstrapServers; this.redisHost = redisHost; this.redisPort = redisPort; } @Override public void run(SourceContext<String> ctx) throws Exception { kafkaConsumer = new KafkaConsumer<>(createConsumerProperties()); kafkaConsumer.subscribe(Collections.singletonList(kafkaTopic)); jedis = new Jedis(redisHost, redisPort); while (true) { ConsumerRecords<String, String> records = kafkaConsumer.poll(Duration.ofMillis(100)); for (ConsumerRecord<String, String> record : records) { ctx.collect(record.value()); lastCommittedOffset = record.offset(); } commitOffsetToRedis(); } } private Properties createConsumerProperties() { Properties props = new Properties(); props.put("bootstrap.servers", kafkaBootstrapServers); props.put("group.id", "flink-kafka-consumer"); props.put("auto.offset.reset", "earliest"); props.put("key.deserializer", StringDeserializer.class.getName()); props.put("value.deserializer", StringDeserializer.class.getName()); return props; } private void commitOffsetToRedis() { jedis.set("kafka-offset", String.valueOf(lastCommittedOffset)); } @Override public void cancel() { kafkaConsumer.close(); } @Override public void snapshotState(FunctionSnapshotContext context) throws Exception { checkpointedOffset.clear(); checkpointedOffset.add(lastCommittedOffset); } @Override public void initializeState(FunctionInitializationContext context) throws Exception { ListStateDescriptor<Long> descriptor = new ListStateDescriptor<>("kafka-offset", Long.class); checkpointedOffset = context.getOperatorStateStore().getListState(descriptor); if (context.isRestored()) { for (Long offset : checkpointedOffset.get()) { lastCommittedOffset = offset; } } } } ``` 在这个示例中,我们实现了一个 Kafka 消费者,每次从 Kafka 中消费一条消息时,将消息的偏移量保存到 `lastCommittedOffset` 变量中,并将 `lastCommittedOffset` 变量的值保存到 Redis 中。在 `snapshotState()` 方法中,我们将 `lastCommittedOffset` 的值保存到 `ListState` 中,这个 `ListState` 会被 Flink 自动保存到检查点中。在 `initializeState()` 方法中,我们从 `ListState` 中恢复之前保存的 `lastCommittedOffset` 的值,如果当前任务是从检查点中恢复的,则将 `lastCommittedOffset` 的值设置为之前保存的值。这样,在任务重新启动时,我们就可以从上一次保存的偏移量的位置开始消费 Kafka 中的消息了。需要注意的是,这个示例中的 Redis 客户端使用的是 Jedis,如果你使用的是 Redisson 或者其他的 Redis 客户端,需要根据具体的客户端文档来实现 Redis 的操作。
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值