kafka是如何支撑百万连接的?

   kafka使用了reactor多路复用机制

   传统的机制,一个连接一个线程:当连接的数量很大,对应的处理线程数量也很大,服务器必然不堪重负。如果有一万个连接,那就对应有一万个线程去处理。

   reactor机制:

      1.由一个acceptor线程,监听连接的建立,连接建立后,投递给process线程;

      2.process线程,会有多个,每个process线程对应某些连接(类似于数据库中,对id取膜的方式分表);

      3.process线程接收到连接,统一投递到“请求队列”中,等待处理;

      4.真正处理的线程池,会去主动消费“请求队列”,消费完毕,会把响应丢到“响应队列”中;

      5.最终,process会从自己的“响应队列”中拿到自己的响应发送回客户端。

   如果还是有一万个连接,使用了reactor机制,只需要1个acceptor线程+10个process线程+100个线程(线程池中处理的线程,步骤4)。线程数会从一万骤降到百这个级别。

 

 

   总结:kafka的reactor机制,省了线程数,连接数是不变的。

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
1. Hadoop Kafka是一个分布式流处理平台,主要用于高吞吐量、低延迟的数据处理。它可以接收大量实时数据,并将数据传输到数据中心或分布式系统中的其他组件进行处理。 2. Kafka主要的组件包括: - Broker:Kafka集群中的一个节点,用于存储和处理消息。 - Topic:消息的种类或类别。 - Partition:Topic被分成的多个部分,每个Partition在不同的Broker上进行存储和处理。 - Producer:用于产生消息并将消息发送到Broker。 - Consumer:从Broker中读取消息的应用程序。 3. Kafka的单机部署相对简单,主要包括以下步骤: - 下载和解压缩Kafka二进制文件。 - 配置Kafka的配置文件,包括Broker ID、监听地址、日志路径等。 - 启动Zookeeper服务。 - 启动Kafka服务。 4. Kafka和Zookeeper、Hadoop以及Flume之间的关系如下: - Kafka使用Zookeeper来管理Broker和Topic的状态信息。 - Hadoop可以使用Kafka作为数据源或目的地,以便将数据从Hadoop集群传输到Kafka集群或从Kafka集群传输到Hadoop集群。 - Flume可以使用Kafka作为数据源或目的地,以便将数据从Flume传输到Kafka或从Kafka传输到Flume。 5. 将Kafka集成到Spring Boot中可以通过Spring Kafka来实现,主要步骤包括: - 引入Spring Kafka依赖。 - 配置Kafka连接信息、生产者和消费者相关信息。 - 在应用程序中使用KafkaTemplate或KafkaListener注解来实现消息的发送和接收。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值