本地开发spark streaming无法消费云主机kafka消息

本地Spark Streaming应用在开发时遇到无法消费云主机上的Kafka消息的问题,由于Kafka集群和生产者不在同一网段导致消息发送超时。解决办法是在Kafka配置中设置`advertised.host.name`为当前机器的外网IP,重启服务后可正常消费。
摘要由CSDN通过智能技术生成

1、Kafka集群在一个192.168.0.x网段的,而我们的生产者在集群外,无法将消息发送过去

错误:11:21:13,936 ERROR KafkaProducer - Batch containing 11 record(s) expired due to timeout while requesting metadata from brokers for onlinelogs-1


2、spark streaming作为消费者在集群之外,无法消费kafka里面的消息

例如:IDEA在本地做开发,但kafka部署在云主机上


解决方案:

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值