导入Flink依赖时报Dependency ‘org.apache.flink:flink-streaming-java:1.13.6‘ not found

今天创建一个Maven工程,发现有4-5个依赖没有导入

也一直在报找不到依赖的异常

我的Java和Flink properties是这样的,就是说Java版本是1.8,Flink版本的1.13.6

   <properties>
        <java.version>1.8</java.version>
        <maven.compiler.source>${java.version}</maven.compiler.source>
        <maven.compiler.target>${java.version}</maven.compiler.target>
        <flink.version>1.13.6</flink.version>
        <scala.version>2.12</scala.version>
        <hadoop.version>3.3.4</hadoop.version>
        <flink-cdc.vesion>2.3.0</flink-cdc.vesion>
        <jdbc-connector.version>3.1.0-1.17</jdbc-connector.version>
        <fastjson.version>1.2.83</fastjson.version>
    </properties>

然后经过我多放测试,最后发现是因为我添加了Scale但是在导入依赖时没有标明Scale版本,在<artifactId></artifactId>中添加

_${scala.version}即可
        <!--flink处理流-->
        <dependency>
            <groupId>org.apache.flink</groupId>
            <artifactId>flink-streaming-scala_${scala.version}</artifactId>
            <version>${flink.version}</version>
            <scope>provided</scope>
        </dependency>

        <!--在 idea 运行的时候,可以打开 web 页面-->
        <dependency>
            <groupId>org.apache.flink</groupId>
            <artifactId>flink-runtime-web_${scala.version}</artifactId>
            <version>${flink.version}</version>
            <scope>provided</scope>
        </dependency>

        <!--  flink客户端      -->
        <dependency>
            <groupId>org.apache.flink</groupId>
            <artifactId>flink-clients_${scala.version}</artifactId>
            <version>${flink.version}</version>
            <scope>provided</scope>
        </dependency>

        <!--flink连接Kafka的        -->
        <dependency>
            <groupId>org.apache.flink</groupId>
            <artifactId>flink-connector-kafka_${scala.version}</artifactId>
            <version>${flink.version}</version>
        </dependency>

        <!--flink sql 相关依赖 开始-->
        <dependency>
            <groupId>org.apache.flink</groupId>
            <artifactId>flink-table-planner-blink_${scala.version}</artifactId>
            <version>${flink.version}</version>
            <scope>provided</scope>
        </dependency>

ClassNotFoundException: org.apache.flink.runtime.state.CheckpointStorageException 是一个Java异常,表示无法找到指定的类或接口。在这种情况下,类 org.apache.flink.runtime.state.CheckpointStorageException 在程序的 classpath 中无法找到。 Flink 是一个用于分布式流处理和批处理的开源框架。在 Flink 中,CheckpointStorageException 是一个用于处理状态检查点存储问题的异常类。它是 Flink 的状态后端 (state backend) 在存储检查点期间可能发生的异常的基类之一。 当程序在启动或运行时抛出 ClassNotFoundException: org.apache.flink.runtime.state.CheckpointStorageException 异常时,表示 Flink 在查找或加载与检查点存储相关的类时遇到了问题。这可能是由以下原因引起的: 1. 缺少所需的 Flink 依赖项。解决方法是检查程序的 classpath,确保所有必需的 Flink 依赖项都已包含在其中。可以通过在构建工具 (如 Maven 或 Gradle) 的配置文件中添加正确的依赖项来解决此问题。 2. 版本不匹配。如果程序中使用的 Flink 版本与检查点存储实现版本不匹配,可能会导致 ClassNotFoundException。确保使用的 Flink 版本和检查点存储实现的版本兼容。 3. 检查点存储实现不可用。某些情况下,可能需要自定义检查点存储实现。如果没有正确配置或者实现有问题,可能会导致 ClassNotFoundException。确保正确配置检查点存储实现,并确保它可用并可访问。 总之,ClassNotFoundException: org.apache.flink.runtime.state.CheckpointStorageException 是一个表示无法找到 Flink 检查点存储相关类的异常。解决这个问题通常包括检查程序的依赖项和版本,以及确保正确配置和可访问的检查点存储实现。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值