Kafka 生产者:客户端网络连接对象(七)

NetworkClient 管理了客户端和服务端之间的网络通信,包括建立、发送客户端请求、读取客户端响应
在 Sender 线程中主要调用 NetworkClient 的几个方法,前两个属于准备阶段,第三个才会发送客户端请求

  • ready():从 RecordAccumulator 获取准备完毕的节点,并连接所有准备好的节点
  • send():为每个节点创建一个客户端请求后存储到节点对应的通道中
  • poll():轮询动作会真正执行网络请求,包括发送请求、处理响应

准备发送客户端请求

  • ready() 首先会判断是否已经准备好,确保消息不会发送到没有准备好的节点,准备好的会调用 selector.connect() 方法建立到目标节点的网络连接
  • 建立连接后,send() 方法先将请求加入 inFlightRequests 列表,然后调用 selector.send() 方法
    • inFlightRequests 是存储存还没有收到响应的请求,默认里面最多存 5 个,里面包含一个双端队列的映射结构,准备发送时先添加到对应的队列中,收到响应再移除
    • 注意:这一步只是暂存请求到对应的通道中,并没有请求,NetworkClient 有一个限制条件,上一个客户端请求还没有发送完成,新的客户端请求就不允许发送
/**
 * Begin connecting to the given node, return true if we are already connected and ready to send to that node.
 * 开始连接到给定的节点,如果已经连接并准备发送到该节点,则返回true。
 */
@Override
public boolean ready(Node node, long now) {
    // 是否具备需要发送消息的条件
    if (isReady(node, now))
        return true;
    // 不具备发送条件,尝试创建连接
    if (connectionStates.canConnect(node.idString(), now))
        // if we are interested in sending to a node and we don't have a connection to it, initiate one
        // 如果我们有兴趣发送到一个节点,但我们没有到它的连接,启动一个
        // 建立连接前的初始化操作
        initiateConnect(node, now);
    return false;
}
/**
 * Initiate a connection to the given node
 * 初始化到给定节点的连接
 */
private void initiateConnect(Node node, long now) {
    String nodeConnectionId = node.idString();
    try {
        this.connectionStates.connecting(nodeConnectionId, now);
        //TODO 尝试建立连接
        selector.connect(nodeConnectionId,
                         new InetSocketAddress(node.host(), node.port()),
                         this.socketSendBuffer,
                         this.socketReceiveBuffer);
    } catch (IOException e) {
		......
    }
}
/**
 * Queue up the given request for sending. Requests can only be sent out to ready nodes.
 * 将给定的请求排队发送。请求只能发送到准备就绪的节点。
 */
@Override
public void send(ClientRequest request, long now) {
    String nodeId = request.request().destination();
    doSend(request, now);
}
private void doSend(ClientRequest request, long now) {
    request.setSendTimeMs(now);
    // 往 inFlightRequests 里面存还没有收到响应的请求,里面最多 5个 请求
    this.inFlightRequests.add(request);
    // TODO
    selector.send(request.request());
}

客户端轮询并调用回调函数

  • poll() 关键是调用 selector.poll(),轮询之后会调用各种处理器来处理响应
  • inFlightRequests 删除对应请求
    • 如果客户端发送完请求不需要响应,handleCompletedSends 在处理已经完成的发送时会将对应请求从 inFlightRequests 中删除
    • 如果客户端发送完请求需要响应,只有在 handleCompletedReceives 中删除对应的请求
  • 不需要响应的流程
    • 开始发送请求 -> 添加请求到队列 -> 发送请求 -> 请求发送成功 -> 删除队列中的请求 -> 构造客户端响应
  • 需要响应的流程
    • 开始发送请求 -> 添加请求到队列 -> 发送请求 -> 请求发送成功 -> 等待响应 -> 接收响应 -> 接收到完整的响应 -> 删除队列中的请求 -> 构造客户端响应
// 在 Sender 线程的最后调用的是 client.poll()
/**
 * Do actual reads and writes to sockets.
 * 对套接字进行实际读取和写入。
 */
@Override
public List<ClientResponse> poll(long timeout, long now) {
    // 封装一个拉取元数据的请求
    long metadataTimeout = metadataUpdater.maybeUpdate(now);
    try {
        // TODO 发送网络请求操作,执行网络的 IO 操作
        this.selector.poll(Utils.min(timeout, metadataTimeout, requestTimeoutMs));
    } catch (IOException e) {
        log.error("Unexpected error during I/O", e);
    }
    // process completed actions 处理完成的动作
    long updatedNow = this.time.milliseconds();
    List<ClientResponse> responses = new ArrayList<>();
    // 完成发送的处理器,处理已经完成的发送
    handleCompletedSends(responses, updatedNow);
    // 完成接收的处理器,处理已经完成的接收
    handleCompletedReceives(responses, updatedNow);
    // 断开连接的处理器
    handleDisconnections(responses, updatedNow);
    // 处理连接的处理器
    handleConnections();
    // 处理超时的处理器
    handleTimedOutRequests(responses, updatedNow);
    // invoke callbacks
    for (ClientResponse response : responses) {
        if (response.request().hasCallback()) {
            try {
                // 调用响应里面之前发送出去的请求的回调函数
                response.request().callback().onComplete(response);
            } catch (Exception e) {
                log.error("Uncaught error in request completion:", e);
            }
        }
    }
    return responses;
}

客户端请求和客户端响应的关系

public final class ClientRequest {
    private final RequestSend request;
    private final RequestCompletionHandler callback;
}

public class ClientResponse {
    private final ClientRequest request;
    private final Struct responseBody;
}
  • ClientRequest 客户端请求 包含客户端发送的请求和回调处理器(回调函数),ClientResponse 客户端响应 包含客户端请求对象和响应结果内容
  • ClientResponse 包含 ClientRequest 的目的是 根据响应获取请求中的回调对象,在收到响应后调用回调函数
  • ClientResponse 和 ClientRequest 生命周期都在 NetworkClient 里
  • 对象之间的关联信息
    • Sender 创建的 ClientRequest 包含请求本身的回调函数
    • Sender 将 ClientRequest 交给 NetworkClient 并记录目标节点和 ClientRequest 的映射关系
    • NetworkClient 的轮询得到发送请求,将 ClientRequest 发送到对应的服务端目标节点
    • 服务端处理 ClientRequest,将客户端响应通过服务端的请求通道返回给客户端
    • NetworkClient 的轮询得到响应结果,客户端收到服务端发送过来的请求处理结果
    • 由于发送到的是不同节点,收到的结果也来自不同节点,通过目标节点和 ClientRequest 的映射关系得到对应的 ClientRequest 作为 ClientResponse 成员变量
    • 调用 ClientResponse.ClientRequest.Callback.onComplete() 触发回调函数
    • ClientRequest 的回调函数会使用 ClientResponse 的响应结果,调用生产者应用程序自定义的回调函数
  • ClientRequest 对应的底层数据来源于 Sender,ClientResponse 对应的底层数据来源于 NetworkReceive
  • NetworkClient 的底层网络操作都交给了 Selector 选择器
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
1/kafka是一个分布式的消息缓存系统 2/kafka集群中的服务器都叫做broker 3/kafka有两类客户端,一类叫producer(消息生产者),一类叫做consumer(消息消费者),客户端和broker服务器之间采用tcp协议连接 4/kafka中不同业务系统的消息可以通过topic进行区分,而且每一个消息topic都会被分区,以分担消息读写的负载 5/每一个分区都可以有多个副本,以防止数据的丢失 6/某一个分区中的数据如果需要更新,都必须通过该分区所有副本中的leader来更新 7/消费者可以分组,比如有两个消费者组A和B,共同消费一个topic:order_info,A和B所消费的消息不会重复 比如 order_info 中有100个消息,每个消息有一个id,编号从0-99,那么,如果A组消费0-49号,B组就消费50-99号 8/消费者在具体消费某个topic中的消息时,可以指定起始偏移量 每个partition只能同一个group中的同一个consumer消费,但多个Consumer Group可同时消费同一个partition。 n个topic可以被n个Consumer Group消费,每个Consumer Group有多个Consumer消费同一个topic Topic在逻辑上可以被认为是一个queue,每条消费都必须指定它的Topic,可以简单理解为必须指明把这条消息放进哪个queue里。为了使得Kafka的吞吐率可以线性提高,物理上把Topic分成一个或多个Partition,每个Partition在物理上对应一个文件夹,该文件夹下存储这个Partition的所有消息和索引文件。若创建topic1和topic2两个topic,且分别有13个和19个分区 Kafka的设计理念之一就是同时提供离线处理和实时处理。根据这一特性,可以使用Storm这种实时流处理系统对消息进行实时在线处理,同时使用Hadoop这种批处理系统进行离线处理,还可以同时将数据实时备份到另一个数据中心,只需要保证这三个操作所使用的Consumer属于不同的Consumer Group即可。
Kafka生产者和消费者代码可以通过使用Kafka提供的Java客户端API来实现。以下是一个简单的示例代码: 1. 生产者代码示例: ``` import org.apache.kafka.clients.producer.Producer; import org.apache.kafka.clients.producer.ProducerRecord; import org.apache.kafka.clients.producer.KafkaProducer; import java.util.Properties; public class KafkaProducerExample { public static void main(String[] args) { // 配置Kafka生产者属性 Properties props = new Properties(); props.put("bootstrap.servers", "localhost:9092"); props.put("key.serializer", "org.apache.kafka.common.serialization.StringSerializer"); props.put("value.serializer", "org.apache.kafka.common.serialization.StringSerializer"); // 创建Kafka生产者 Producer<String, String> producer = new KafkaProducer<>(props); // 发送消息到指定的主题 String topic = "hello"; String message = "hello kafka"; producer.send(new ProducerRecord<>(topic, message)); // 关闭生产者连接 producer.close(); } } ``` 2. 消费者代码示例: ``` import org.apache.kafka.clients.consumer.Consumer; import org.apache.kafka.clients.consumer.ConsumerRecords; import org.apache.kafka.clients.consumer.KafkaConsumer; import java.util.Collections; import java.util.Properties; public class KafkaConsumerExample { public static void main(String[] args) { // 配置Kafka消费者属性 Properties props = new Properties(); props.put("bootstrap.servers", "localhost:9092"); props.put("group.id", "test-consumer-group"); props.put("key.deserializer", "org.apache.kafka.common.serialization.StringDeserializer"); props.put("value.deserializer", "org.apache.kafka.common.serialization.StringDeserializer"); // 创建Kafka消费者 Consumer<String, String> consumer = new KafkaConsumer<>(props); // 订阅指定的主题 String topic = "hello"; consumer.subscribe(Collections.singletonList(topic)); // 持续消费消息 while (true) { ConsumerRecords<String, String> records = consumer.poll(100); for (ConsumerRecord<String, String> record : records) { System.out.println("消费消息: " + record.value()); } } } } ``` 这些示例代码演示了如何使用Java编写Kafka生产者和消费者。生产者代码创建一个KafkaProducer对象,并使用send方法发送消息到指定的主题。消费者代码创建一个KafkaConsumer对象,并订阅指定的主题,然后使用poll方法不断地消费消息。请根据实际需求修改主题名称和Kafka服务器地址等配置信息。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *2* *3* [Kafka06:【案例】Java操作KafkaJava代码实现生产者代码、Java代码实现消费者代码、消费者代码扩展、...](https://blog.csdn.net/weixin_40612128/article/details/123455387)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 100%"] [ .reference_list ]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值