flink 消费Kafka 空指针问题

flink 消费Kafka 空指针问题

error:

2021-12-02 10:51:55,644 WARN org.apache.flink.runtime.taskmanager.Task [] - Source: Custom Source (1/3)#4 (92d97e5b78862c632d32b272b843bf4b) switched from RUNNING to FAILED with failure cause: java.lang.NullPointerException
    at java.lang.String.<init>(String.java:515)
    at org.apache.flink.api.common.serialization.SimpleStringSchema.deserialize(SimpleStringSchema.java:78)
    at org.apache.flink.api.common.serialization.SimpleStringSchema.deserialize(SimpleStringSchema.java:36)
    at org.apache.flink.api.common.serialization.DeserializationSchema.deserialize(DeserializationSchema.java:82)
    at org.apache.flink.streaming.connectors.kafka.internals.KafkaDeserializationSchemaWrapper.deserialize(KafkaDeserializationSchemaWrapper.java:58)
    at org.apache.flink.streaming.connectors.kafka.internals.KafkaFetcher.partitionConsumerRecordsHandler(KafkaFetcher.java:179)
    at org.apache.flink.streaming.connectors.kafka.internals.KafkaFetcher.runFetchLoop(KafkaFetcher.java:142)
    at org.apache.flink.streaming.connectors.kafka.FlinkKafkaConsumerBase.run(FlinkKafkaConsumerBase.java:826)
    at org.apache.flink.streaming.api.operators.StreamSource.run(StreamSource.java:110)
    at org.apache.flink.streaming.api.operators.StreamSource.run(StreamSource.java:66)
    at org.apache.flink.streaming.runtime.tasks.SourceStreamTask$LegacySourceFunctionThread.run(SourceStreamTask.java:269)

2021-12-02 10:51:55,644 WARN org.apache.flink.runtime.taskmanager.Task [] - Source: Custom Source (1/3)#4 (92d97e5b78862c632d32b272b843bf4b) switched from RUNNING to FAILED with failure cause: java.lang.NullPointerException
    at java.lang.String.<init>(String.java:515)
    at org.apache.flink.api.common.serialization.SimpleStringSchema.deserialize(SimpleStringSchema.java:78)
    at org.apache.flink.api.common.serialization.SimpleStringSchema.deserialize(SimpleStringSchema.java:36)
    at org.apache.flink.api.common.serialization.DeserializationSchema.deserialize(DeserializationSchema.java:82)
    at org.apache.flink.streaming.connectors.

原因及解决方案

这是因为 mongodb 在客户端发送编辑信息时,会返回三条信息 delete null insert (也有可能是dbz 写入 kafka 时产生了墓碑消息)

实现static class MySimpleStringSchema implements DeserializationSchema, SerializationSchema

      @Override
    public String deserialize(byte[] message) {
            if (message != null){
                return new String(message, charset);
            }
           return deserialize(new byte[1]);

    }

做一个非null判断

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
Flink 中使用 Kafka 作为数据源可以通过 FlinkKafka Consumer 进行实现。下面是一个简单的 Flink 消费 Kafka 数据的代码示例: ```java import org.apache.flink.streaming.api.datastream.DataStream; import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment; import org.apache.flink.streaming.connectors.kafka.FlinkKafkaConsumer; import java.util.Properties; public class FlinkKafkaConsumerExample { public static void main(String[] args) throws Exception { // 设置执行环境 final StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment(); // 配置 Kafka Consumer Properties props = new Properties(); props.setProperty("bootstrap.servers", "localhost:9092"); props.setProperty("group.id", "test"); // 创建 FlinkKafkaConsumer FlinkKafkaConsumer<String> consumer = new FlinkKafkaConsumer<>("mytopic", new SimpleStringSchema(), props); // 将 Kafka Consumer 添加到 Flink 程序中 DataStream<String> stream = env.addSource(consumer); // TODO: 在这里添加对数据流的处理逻辑 // 执行 Flink 程序 env.execute("Flink Kafka Consumer Example"); } } ``` 上述代码中,我们首先使用 `StreamExecutionEnvironment` 创建执行环境。然后,我们设置 Kafka Consumer 的配置信息,并使用 `FlinkKafkaConsumer` 创建一个 Kafka Consumer 对象。最后,我们将 Kafka Consumer 添加到 Flink 程序中,使用 `env.addSource()` 方法将 Kafka 数据流转换为 Flink 数据流。接下来,我们可以在 `TODO` 标记处添加对数据流的处理逻辑。最后,我们调用 `env.execute()` 方法来执行 Flink 程序。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值