在flink集群中运行jar包出ClusterRetrieveException: Couldn‘t retrieve Yarn cluster问题的解决办法

如果将idea上的flink代码打包运行在flink集群上,出现如下问题
在这里插入图片描述
有两方面需要考虑:

一、修改yarn-site.xml配置文件,原因是可能内存超过虚拟内存的限制,所以需要对yarn进行虚拟内存限制修正,将如下两个配置改为false
<property>
    //pmem指的是默认检查物理内存,容器使用的物理内存不能超过我们限定的内存大小,因为我们上面设置了所有容器能够使用的最大内存数量,超出这个内存限制,任务就会被kill掉
    <name>yarn.nodemanager.pmem
  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
如果在使用 Flink 和 Phoenix 时现了 jar 包冲突,可以尝试以下解决方法: 1. 排除冲突的 jar 包 在 Maven 或 Gradle 依赖可以指定排除某些 jar 包的依赖,例如: ``` <dependency> <groupId>org.apache.flink</groupId> <artifactId>flink-connector-kafka_2.11</artifactId> <version>${flink.version}</version> <exclusions> <exclusion> <groupId>org.apache.kafka</groupId> <artifactId>kafka-clients</artifactId> </exclusion> </exclusions> </dependency> ``` 这里排除了 `flink-connector-kafka_2.11` 的依赖的 `kafka-clients` jar 包。 2. 引入 shade 插件 可以使用 Maven 的 shade 插件将依赖的 jar 包重命名并打包到一个新的 jar,避免 jar 包冲突,例如: ```xml <plugin> <groupId>org.apache.maven.plugins</groupId> <artifactId>maven-shade-plugin</artifactId> <version>3.2.3</version> <configuration> <relocations> <relocation> <pattern>com.google.common</pattern> <shadedPattern>shade.com.google.common</shadedPattern> </relocation> </relocations> </configuration> </plugin> ``` 这里将依赖的 `com.google.common` 包重命名为 `shade.com.google.common`。 3. 修改 Flink 的 classpath 可以将依赖的 jar 包放到 Flink 的 classpath ,例如在启动 Flink JobManager 或 TaskManager 时指定 classpath: ``` ./bin/flink run -m yarn-cluster -yn 3 -c com.acme.MyFlinkJob -classpath "/path/to/dependency/*" /path/to/MyFlinkJob.jar ``` 这里将依赖的 jar 包放到了 `/path/to/dependency/` 目录下,并通过 `-classpath` 参数将该目录下所有 jar 包加入到 Flink 的 classpath 。 希望这些方法可以帮助你解决 jar 包冲突问题

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值