kafka客户不能连接到kafka集群(docker或者aws等)

本文详细介绍了客户端无法连接到Kafka集群的各种情况及其解决方案,包括同一机器、跨机器、Docker环境以及docker-compose搭建的场景。核心在于正确配置`advertised.listeners`和`listener.security.protocol.map`,确保客户端能够解析并连接到正确的hostname和端口。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

客户端不能连接到kafka集群中主要是advertised.listenerslistener.security.protocol.map没配置好。下面分情景给出正确的配置。

client连接到kafka集群的步骤

  1. 客户端第一连接到broker上时,broker返回kafka集群的元数据,其中包括各个broker的hostname和端口

  2. 客户端获取到元数据信息后根据自身需求利用元数据中的主机端口信息连接到对应的broker上

连接的问题的多数是出现在第2步中。下面分情况给出正确配置。

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

情况1:客户端和kafka运行在同一台机器上

这种情况如下如,运行良好
在这里插入图片描述

情况2:客户端和kafka在不同机器上

这种情况的连接timeout往往是应为第二步中返回的hostname在客户端机器上不能解析导致的
在这里插入图片描述
解决方法是修改broker上的server.properties配置
旧配置:

advertised.listeners=PLAINTEXT://localhost:9092
listeners=PLAINTEXT://0.0.0.0:9092

正确配置:

advertised.listeners=PLAINTEXT://asgard03.moffatt.me:9092
listeners=PLAINTEXT://0.0.0.0:9092

配置后的流程图如下:
返回的元数据中包含客户端机器客解析的hostname,故能正确消费
在这里插入图片描述

情况3:客户端和kafka运行在docker中

由于默认配置会返回localhost:9092这样的配置,众所周知,在docker中不同的container沟通是通过docker network,所以需要把返回的hostname改成kafka所在容器的容器名(默认的hostname和容器名一样,如果自定义了则改成自己指定的hostname)
在这里插入图片描述

    -e KAFKA_ADVERTISED_LISTENERS=PLAINTEXT://localhost:9092 \

改成

    -e KAFKA_ADVERTISED_LISTENERS=PLAINTEXT://broker:9092 \

你看他们又可以快乐玩耍了
在这里插入图片描述

情况4:使用docker-compose构建kafka

参考dockerhub上的说明文档
关键如下,有两个listener,分别叫client和external,client用于内部,external用于外部客户端,外部的客户端连接9093端口即可
在这里插入图片描述

情况5:kafka在docker中,客户端在本地机器

kafka运行在docker中,有一个本地的客户端需要连接到docker中的broker,结构如下
在这里插入图片描述
如果直接连接,结果如下,再返回的元数据中hostname是docker容器名,这样的host肯定不能解析,所以报错
在这里插入图片描述
解决办法是增加一个listener

…
    ports:
      - "19092:19092"
    environment:
      KAFKA_ADVERTISED_LISTENERS: PLAINTEXT://broker:9092,CONNECTIONS_FROM_HOST://localhost:19092
      KAFKA_LISTENER_SECURITY_PROTOCOL_MAP: PLAINTEXT:PLAINTEXT,CONNECTIONS_FROM_HOST:PLAINTEXT
…

注意客户端连接到新的端口上
在这里插入图片描述

情况6:kafka在本地主机上,客户端在docker中

不要这样干。解决办法移步原文

1/kafka是一个分布式的消息缓存系统 2/kafka集群中的服务器都叫做broker 3/kafka有两类客户端,一类叫producer(消息生产者),一类叫做consumer(消息消费者),客户端和broker服务器之间采用tcp协议连接 4/kafka中不同业务系统的消息可以通过topic进行区分,而且每一个消息topic都会被分区,以分担消息读写的负载 5/每一个分区都可以有多个副本,以防止数据的丢失 6/某一个分区中的数据如果需要更新,都必须通过该分区所有副本中的leader来更新 7/消费者可以分组,比如有两个消费者组A和B,共同消费一个topic:order_info,A和B所消费的消息不会重复 比如 order_info 中有100个消息,每个消息有一个id,编号从0-99,那么,如果A组消费0-49号,B组就消费50-99号 8/消费者在具体消费某个topic中的消息时,可以指定起始偏移量 每个partition只能同一个group中的同一个consumer消费,但多个Consumer Group可同时消费同一个partition。 n个topic可以被n个Consumer Group消费,每个Consumer Group有多个Consumer消费同一个topic Topic在逻辑上可以被认为是一个queue,每条消费都必须指定它的Topic,可以简单理解为必须指明把这条消息放进哪个queue里。为了使得Kafka的吞吐率可以线性提高,物理上把Topic分成一个或多个Partition,每个Partition在物理上对应一个文件夹,该文件夹下存储这个Partition的所有消息和索引文件。若创建topic1和topic2两个topic,且分别有13个和19个分区 Kafka的设计理念之一就是同时提供离线处理和实时处理。根据这一特性,可以使用Storm这种实时流处理系统对消息进行实时在线处理,同时使用Hadoop这种批处理系统进行离线处理,还可以同时将数据实时备份到另一个数据中心,只需要保证这三个操作所使用的Consumer属于不同的Consumer Group即可。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值