jar包冲突完整解决方案

背景

        开发flink程序,引入了Hadoop-hdfs相关包用于访问hdfs,程序开发完成后,本地测试无任何问题,提交上线,运行jar提示如下错误:

java.lang.NoSuchMethodError: org.apache.commons.cli.Option.builder(Ljava/lang/String;)Lorg/apache/commons/cli/Option$Builder;
	at org.apache.flink.runtime.entrypoint.parser.CommandLineOptions.<clinit>(CommandLineOptions.java:27) ~[flink-dist_2.12-1.12.1.jar:1.12.1]
	at org.apache.flink.runtime.entrypoint.ClusterConfigurationParserFactory.options(ClusterConfigurationParserFactory.java:42) ~[flink-dist_2.12-1.12.1.jar:1.12.1]
	at org.apache.flink.runtime.entrypoint.ClusterConfigurationParserFactory.getOptions(ClusterConfigurationParserFactory.java:50) ~[flink-dist_2.12-1.12.1.jar:1.12.1]
	at org.apache.flink.runtime.entrypoint.parser.CommandLineParser.parse(CommandLineParser.java:42) ~[flink-dist_2.12-1.12.1.jar:1.12.1]
	at org.apache.flink.runtime.util.ConfigurationParserUtils.loadCommonConfiguration(ConfigurationParserUtils.java:135) ~[flink-dist_2.12-1.12.1.jar:1.12.1]
	at org.apache.flink.runtime.taskexecutor.TaskManagerRunner.loadConfiguration(TaskManagerRunner.java:352) ~[flink-dist_2.12-1.12.1.jar:1.12.1]
	at org.apache.flink.runtime.taskexecutor.TaskManagerRunner.runTaskManagerSecurely(TaskManagerRunner.java:367) [flink-dist_2.12-1.12.1.jar:1.12.1]
	at org.apache.flink.runtime.taskexecutor.TaskManagerRunner.main(TaskManagerRunner.java:348) [flink-dist_2.12-1.12.1.jar:1.12.1]

原因分析

        引用缺失如字面含义:未找到对应的方法,可能是引用的类无该方法,查看编译好的class文件,org.apache.commons.cli.Option.builder 的class文件存在,可排除缺失引用。

        jar包冲突

  •         查看本地依赖是否存在jar冲突

推荐个idea的插件:maven helper,安装插件后,打开项目pom.xml文件,点击:dependcy Analyzer,界面如下:

点击common-cli,如下:

可以看出依赖包有1.2和1.3.1的包,存在包冲突,排查1.3.1的包即可,排除方法如下:选中右侧1.3.1的版本:右键,点击jump to left tree ,如下:

 右键点击exclude,一键排除冲突包,点击reimport,刷新依赖即可,可以看到common-cli不存在冲突列表:

为什么本地不会冲突?

因为hadoop相关包,scope设置的provided,只在编译时生效,运行时不生效

 <!-- 访问hdfs -->
      <dependency>
          <groupId>org.apache.hadoop</groupId>
          <artifactId>hadoop-hdfs</artifactId>
          <version>${cdh.hadoop.version}</version>
          <scope>provided</scope>
      </dependency>
      <dependency>
          <groupId>org.apache.hadoop</groupId>
          <artifactId>hadoop-common</artifactId>
          <version>${cdh.hadoop.version}</version>
          <scope>provided</scope>
      </dependency>

      <dependency>
          <groupId>org.apache.hadoop</groupId>
          <artifactId>hadoop-client</artifactId>
          <version>${cdh.hadoop.version}</version>
          <scope>provided</scope>
      </dependency>

 为什么服务器上冲突,服务器存在hadoop相关jar包,与打包后的flink-runtime中包含的common-cli存在版本冲突。

 

 

  • 0
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
您好!对于出现 NoClassDefFoundError 的问题,一般是由于编译时缺少了某个类的依赖导致的。以下是一些可能的解决方案: 1. 检查依赖:请确保您的项目中的依赖项已正确配置并且完整。可以通过查看您的 Gradle 构建文件(如 build.gradle)来确认是否已添加了所需的依赖项。如果缺少某个依赖项,可以尝试手动添加它。 2. 清理和重新构建:有时编译过程中出现问题会导致构建结果不完整。您可以尝试运行 `gradle clean` 命令清理构建结果,然后重新运行 `gradle build` 来重新构建项目。 3. 检查类路径:请确保您的项目的类路径正确设置,以包含所有必要的类和依赖项。您可以查看您的构建脚本或 IDE 设置,确认类路径是否正确配置。 4. 检查打包配置:如果您使用的是自定义的打包配置,例如通过 Gradle 的插件或自定义任务进行打包,可能需要检查是否正确地包含了所有必要的类和资源文件。 5. 检查 Jar 包结构:如果您的 Jar 包结构不正确,可能会导致 NoClassDefFoundError。请确保您的 Jar 包中包含了所有必要的类和资源文件,并且它们位于正确的位置。 6. 检查版本冲突:有时候不同的依赖项可能会引起版本冲突,导致某些类无法找到。您可以尝试通过更新或排除依赖项来解决版本冲突问题。 希望以上解决方案能够帮助您解决问题。如果问题仍然存在,请提供更多的详细信息,以便我们提供更准确的帮助。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值