NoSuchMethodError: org.apache.flink.api.common.state.OperatorStateStore.getSerializableListState

本文描述了在将Flink版本从1.10.0升级到1.12.0时遇到的问题,即flink-connector-kafka-0.11_2.11与新版本不兼容。解决过程包括尝试回退旧版本的connector,以及遵循官方文档移除不兼容的连接器并使用新的flink-sql-connector-kafka_2.11实现通用Kafka消费者。
摘要由CSDN通过智能技术生成

一、问题描述

将flink版本从1.10.0 升级到 1.12.0,

原pom文件(摘取主要的和flink相关的)

 <properties>
      <project.build.sourceEncoding>UTF-8</project.build.sourceEncoding>
      <flink.version>1.10.0</flink.version>
      <java.version>1.8</java.version>
      <scala.binary.version>2.11</scala.binary.version>
      <hadoop.version>2.7.4</hadoop.version>
      <maven.compiler.source>${java.version}</maven.compiler.source>
      <maven.compiler.target>${java.version}</maven.compiler.target>
  </properties>

  <dependencies>
      <!-- Apache Flink dependencies -->
      <!-- These dependencies are provided, because they should not be packaged into the JAR file. -->
      <dependency>
          <groupId>org.apache.flink</groupId>
          <artifactId>flink-java</artifactId>
          <version
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值