kafka生产者报错Failed to update metadata after 60000 ms.

背景

由于新增一个对接渠道,系统要对Kafka的消息进行消费,由于对接方目前没有环境,所以自己本地开发,并且使用环境中的一台kafka作为开发使用,本地自己设置producer和consumer,分别作为生产者和消费者。

producer

在这里插入图片描述

consumer

在这里插入图片描述

问题

同样的topic和groupid,但是在使用的过程中,在producer提供消息的时候,出现了Failed to update metadata after 60000 ms.

网上搜索多数都是要求更改kafka的配置文件中的信息,但是此kafka服务器是共有的,其他程序也是在完美运行中,因此不会是配置问题。

尝试

调整生产者和消费者代码,用新的bean方式,最终还是不行。
调整生产者和消费者的配置,保障唯一性,还是一样的问题。

解决

由于kafka维护在其他项目组人员下面,且有其他项目组使用,查看其他项目组的代码,发现kafka的版本是0.9.0,我们项目中没有对kafka单独引入依赖,默认集成在org.springframework,默认是1.2.0。。。。由于我们是client客户端,所以需要单独配置一下pom。更改版本为0.9.0即可。

在这里插入图片描述
困扰一下午的问题得以解决。。。。

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值