org.apache.flink.client.program.ProgramInvocationException: The main method caused an error: Failed

在Linux环境中运行Flink CDC任务时遇到异常,由于Flink 1.14.4版本缺少Hadoop集成,导致任务失败。为解决此问题,需要下载flink-shaded-hadoop-2-uber jar包,并将其上传到Flink的lib目录下,然后重启Flink服务,最终成功执行任务。
摘要由CSDN通过智能技术生成

在idea上执行flinkCDC是正常的,结果到了Linux上报异常:

Caused by: org.apache.flink.core.fs.UnsupportedFileSystemSchemeException: Hadoop is not in the classpath/dependencies.
        at org.apache.flink.core.fs.UnsupportedSchemeFactory.create(UnsupportedSchemeFactory.java:55)
        at org.apache.flink.core.fs.FileSystem.getUnguardedFileSystem(FileSystem.java:528)

原因:我的1.14.4版本的Flink没有Hadoop集成,因此无法直接操作HDFS

下载相关jar包

https://repo.maven.apache.org/maven2/org/apache/flink/flink-shaded-hadoop-2-uber/2.7.5-7.0/flink-shaded-hadoop-2-uber-2.7.5-7.0.jar

上传到flink/lib下

重启flink

ok,任务提交成功

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值