本地开发spark streaming无法消费云主机kafka消息
最新推荐文章于 2022-02-19 16:15:40 发布
本地Spark Streaming应用在开发时遇到无法消费云主机上的Kafka消息的问题,由于Kafka集群和生产者不在同一网段导致消息发送超时。解决办法是在Kafka配置中设置`advertised.host.name`为当前机器的外网IP,重启服务后可正常消费。
摘要由CSDN通过智能技术生成