kafka生产者报错Failed to update metadata after 60000 ms.

背景

由于新增一个对接渠道,系统要对Kafka的消息进行消费,由于对接方目前没有环境,所以自己本地开发,并且使用环境中的一台kafka作为开发使用,本地自己设置producer和consumer,分别作为生产者和消费者。

producer

在这里插入图片描述

consumer

在这里插入图片描述

问题

同样的topic和groupid,但是在使用的过程中,在producer提供消息的时候,出现了Failed to update metadata after 60000 ms.

网上搜索多数都是要求更改kafka的配置文件中的信息,但是此kafka服务器是共有的,其他程序也是在完美运行中,因此不会是配置问题。

尝试

调整生产者和消费者代码,用新的bean方式,最终还是不行。
调整生产者和消费者的配置,保障唯一性,还是一样的问题。

解决

由于kafka维护在其他项目组人员下面,且有其他项目组使用,查看其他项目组的代码,发现kafka的版本是0.9.0,我们项目中没有对kafka单独引入依赖,默认集成在org.springframework,默认是1.2.0。。。。由于我们是client客户端,所以需要单独配置一下pom。更改版本为0.9.0即可。

在这里插入图片描述
困扰一下午的问题得以解决。。。。

  • 5
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
"Failed to update metadata after 60000 ms" 是一个错误消息,通常在使用 Apache Kafka 进行数据传输时出现。这个错误表示 Kafka 客户端在指定的时间内无法更新元数据信息。 元数据是 Kafka 集群中关于主题、分区和副本等信息的描述。当 Kafka 客户端需要连接到集群并发送或接收消息时,它需要获取最新的元数据信息。如果在指定的时间内无法更新元数据,就会出现这个错误。 这个错误可能有以下几个原因: 1. 网络问题:客户端无法与 Kafka 集群建立连接,可能是由于网络故障、防火墙配置或者集群不可用导致的。 2. 集群问题:Kafka 集群可能正在进行重分区、副本分配或者其他维护操作,导致元数据更新失败。 3. 客户端配置问题:客户端的配置可能不正确,比如指定了错误的集群地址、端口或者其他参数。 解决这个问题的方法包括: 1. 检查网络连接:确保客户端能够正常连接到 Kafka 集群,并且网络稳定。 2. 检查集群状态:确认 Kafka 集群正常运行,并且没有正在进行的维护操作。 3. 检查客户端配置:仔细检查客户端的配置文件,确保配置正确。 4. 增加超时时间:可以尝试增加更新元数据的超时时间,以便给集群足够的时间来响应。 5. 调整 Kafka 集群的配置:如果问题持续存在,可能需要调整 Kafka 集群的配置,比如增加副本数、调整分区分配策略等。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值