【2024最新精简版】Kafka面试篇

在这里插入图片描述


更多相关内容可查看

Kafka和RabbitMQ什么区别

RabbitMQRocketMQKafka
公司/社区Rabbit阿里Apache
开发语言ErlangJavaScala&Java
协议支持AMQP,XMPP,SMTP,STOMP自定义协议自定义协议
可用性
单机吞吐量一般非常高
消息延迟微秒级毫秒级毫秒以内
消息可靠性一般
  1. 底层开发语言不同 : RabbitMQ底层采用Erlang语言开发 , Kafka是基于Java和Scala语言的
  2. 协议支持不一样 : RabbitMQ支持AMQP和SMTP通过插件还能支持MQTT等协议 , Kafka是自定义的协议更加灵活
  3. Kafka的吞吐量比RabbitMQ更高 , 性能比RabbitMQ更好
  4. RabbitMQ基于队列存储消息和消费消息 , Kafka基于主题分区存储消息和消费消息

你们公司为什么选择Kafka ?
我们选择Kafka主要基于一下考虑 :

  1. Kafka的消息吞吐量比较高, 我们项目中会使用Kafka进行行为数据采集, 行为数据量是比较大的 , 所以需要吞吐量更高的消息中间件
  2. 我们项目中还使用了KafkaStream进行流式数据运算 , RabbitMQ没有提供流式计算的功能
  3. 我们团队中有其他小伙伴之前用过Kafka , 我们现在使用Kafka成本比较低, 也可以规避一些使用过程中的问题

讲一讲Kafka架构

image.png
Kafka主要包括如下部分组成 ;

  1. Producer:Producer 即生产者,消息的产生者,发送消息
  2. Broker:Broker 是 kafka 一个实例,每个服务器上有一个或多个 kafka 的实例,简单的理解就是一台 kafka 服务器,kafka cluster表示集群的意思
  3. Topic:消息的主题,可以理解为消息队列,kafka的数据就保存在topic。在每个 broker 上都可以创建多个 topic 。
  4. Partition:Topic的分区,每个 topic 可以有多个分区,分区的作用是做负载,提高 kafka 的吞吐量。同一个 topic 在不同的分区的数据是不重复的,partition 的表现形式就是一个一个的文件夹!
  5. Replication:每一个分区都有多个副本,副本的作用是做备胎,主分区(Leader)会将数据同步到从分区(Follower)。当主分区(Leader)故障的时候会选择一个备胎(Follower)上位,成为 Leader。在kafka中默认副本的最大数量是10个,且副本的数量不能大于Broker的数量,follower和leader绝对是在不同的机器,同一机器对同一个分区也只可能存放一个副本
  6. Message:每一条发送的消息主体。
  7. Consumer:消费者,即消息的消费方,是消息的出口。
  8. Consumer Group:我们可以将多个消费者组成一个消费者组,在 kafka 的设计中同一个分区的数据只能被消费者组中的某一个消费者消费。同一个消费者组的消费者可以消费同一个topic的不同分区的数据,这也是为了提高kafka的吞吐量!
  9. Zookeeper:kafka 集群依赖 zookeeper 来保存集群的的元信息,来保证系统的可用性。

你们项目中哪里用到了Kafka?

采购合同处理工作台
数据源/生产者:可以是走销售合同的(购销一体),也可以直接走采购合同的(购销分离),将这些数据分别加载到Kafka订单主题中
消费者:然后这些订单可以入仓,可以发运,可以实时的消费订单数据

为什么会选择使用Kafka? 有什么好处 ?

选择使用Kafka是因为Kafka作为中间件他的吞吐量比较高 , 我们的系统中主要使用Kafka来处理一些用户的行为数据 , 用户行为数据用户操作成本低 , 数据量比较大 , 需要有更高的吞吐量支持 , 并且我们在项目中需要实现根据用户行为的实时推荐 , 运营端后台管理系统首页看板数据的实体展示 !
使用Kafka有很多好处:

  • ** 吞吐量提升:无需等待订阅者处理完成,响应更快速**
  • 故障隔离:服务没有直接调用,不存在级联失败问题
  • 调用间没有阻塞,不会造成无效的资源占用
  • 耦合度极低,每个服务都可以灵活插拔,可替换
  • 流量削峰:不管发布事件的流量波动多大,都由Broker接收,订阅者可以按照自己的速度去处理事件

使用Kafka也有很多缺点:

  • 架构复杂了,业务没有明显的流程线,不好管理
  • 需要依赖于Broker的可靠、安全、性能

使用Kafka如何保证消息不丢失 ?

使用Kafka在消息的收发过程都会出现消息丢失 , Kafka分别给出了解决方案

  1. 生产者发送消息到Brocker丢失

设置同步发送和异步发送

  • 同步发送可以通过get()获取到消息的发送结果 , 阻塞方案, 效率比较低
  • 异步发送可以通过回调获取到消息的发送接口 , 非阻塞方案, 效率较高 , 可能会出现回调丢失
  • 设置消息发送失败的重试次数, 设置为一个很大的值, 发送失败不断重试
  1. 消息在Brocker中存储丢失

Kafka提供了分区的备份机制 , 可以为每个分区设置多个副本 , 主分区服务器宕机, 副本分区还有完整数据
主分区数据同步到副本分区之前, 主分区宕机也有可能会出现消息丢失问题 , 解决方案就是设置消息确认的ACKS

确认机制说明
acks=0生产者在成功写入消息之前不会等待任何来自服务器的响应,消息有丢失的风险,但是速度最快
acks=1(默认值)只要集群首领节点收到消息,生产者就会收到一个来自服务器的成功响应
acks=all只有当所有参与赋值的节点全部收到消息时,生产者才会收到一个来自服务器的成功响应
  1. 消费者从Brocker接收消息丢失

消费者是通过offset来定位消费数据的 , 当消费者出现故障之后会触发重平衡, 会为消费者组中的消费者重新分配消费分区, 正常情况下是没有问题的 , 这也是Kafka提供的消费保障机制
但是在重平衡的过程中 , 因为Kafka默认子每隔5S自动提交偏移量 , 那么就有可能会出现消息丢失和重复消费问题

  • 如果提交偏移量小于客户端处理的最后一个消息的偏移量,那么处于两个偏移量之间的消息就会被重复处理。
  • 如果提交的偏移量大于客户端的最后一个消息的偏移量,那么处于两个偏移量之间的消息将会丢失。

解决方案有二种 :

  1. 设置更小的自动提交偏移量的周期 , 周期越小出现问题的概率也就越小, 对消费者性能和服务器压力的影响就越大(缓解方案,不能从根本上解决问题)
  2. 消费完毕手动提交偏移量
    1. 同步提交 : 会阻塞, 效率低 , 但是会重试 , 直到成功为止
    2. 异步提交 : 不会阻塞 , 效率高 , 但是不会重试 , 可能会出现提交失败问题
    3. 同步异步结合

通过Kafka本身所提供的机制基本上已经可以保证消息不丢失 , 但是因为一些特殊的原因还是会发送消息丢失问题 , 例如 : 回调丢失 , 系统宕机, 磁盘损坏等 , 这种概率很小 , 但是如果想规避这些问题 , 进一步提高消息发送的成功率, 也可以通过程序自己进行控制
image.png
设计一个消息状态表 , 主要包含 : 消息id , 消息内容 , 主题 , 发送时间, 签收状态等字段 , 发送方业务执行完毕之后 , 向消息状态表保存一条消息记录, 消息状态为未签收 , 之后再向Kafka发送消息 , 消费方接收消息消费完毕之后 , 向发送方发送一条签收消息 , 发送方接收到签收消息之后 , 修改消息状态表中的消息状态为已签收 ! 之后通过定时任务扫描消息状态表中这些未签收的消息 , 重新发送消息, 直到成功为止 , 对于已经完成消费的消息定时清理即可 !

消息的重复消费问题如何解决的 ?

消费者是通过offset来定位消费数据的 , 当消费者出现故障之后会触发重平衡, 会为消费者组中的消费者重新分配消费分区, 正常情况下是没有问题的 , 这也是Kafka提供的消费保障机制
但是在重平衡的过程中 , 因为Kafka默认子每隔5S自动提交偏移量 , 那么就有可能会出现消息丢失和重复消费问题
如果提交偏移量小于客户端处理的最后一个消息的偏移量,那么处于两个偏移量之间的消息就会被重复处理。

解决方案有二种 :

  1. 设置更小的自动提交偏移量的周期 , 周期越小出现问题的概率也就越小, 对消费者性能和服务器压力的影响就越大(缓解方案,不能从根本上解决问题)
  2. 消费完毕手动提交偏移量
    1. 同步提交 : 会阻塞, 效率低 , 但是会重试 , 直到成功为止
    2. 异步提交 : 不会阻塞 , 效率高 , 但是不会重试 , 可能会出现提交失败问题
    3. 同步异步结合

基于上面的操作如果因为网络原因, 服务器原因出现偏移量提交失败的情况 , 还是会出现重复消费 , 具体的解决方案其实非常简单, 为每条消息设置一个唯一的标识id , 将已经消费的消息记录保存起来 , 后期再进行消费的时候判断是否已经消费过即可 , 如果已经消费过则不消费 , 如果没有消费过则正常消费

Kafka如何保证消费的顺序性 ?

topic分区中消息只能由消费者组中的唯一一个消费者处理,所以消息肯定是按照先后顺序进行处理的。
但是它也仅仅是保证Topic的一个分区顺序处理,不能保证跨分区的消息先后处理顺序。
所以,如果你想要顺序的处理Topic的所有消息,那就只提供一个分区。只提供一个分区又会严重影响Kafka消息的吞吐量
解决方案 :

  1. Kafka中发送消息可以手动指定分区也可以通过Key将消息路由到分区 , 可以将需要顺序执行的一批次消息都发送到同一个分区之中 , 这样消费者从分区消费数据就有序了
  2. 使用内存队列 , 只提供一个分区,消费者不消费数据 , 将需要保证顺序性的一批次消息保存到同一个内存队列 , 然后分发给底层不同的worker来处理

Kafka的高可用机制有了解过嘛 ?

Kafka作为一款使用比较广泛的消息中间件产品, 本身也提供了一些机制去实现高可用 , 主要包括 :

  1. Kafka 集群 : 通过集群模式, 保证Brocker的高可用
  2. 分区备份机制 : Kafka会为每一个分区设置副本 , 可以手动指定副本数量 , 这些副本会分配到Kafka的不同的Brocker上存储 , 这样可以保证Kafka数据高可用
  3. 重平衡 : 当消费者组中重新加入消费者 , 或者消费者组中有消费者宕机 , 这个时候Kafka会为消费者组中的消费者从新分配消费分区的过程就是再均衡 , 通过重平衡消实现了消费者的高可用

Kafka实现高性能的设计有了解过嘛 ?

Kafka 高性能,是多方面协同的结果,包括宏观架构、分布式存储、ISR 数据同步、以及高效的利用磁盘、操作系统特性等。总结一下其实就是六个要点

  • 顺序读写
  • 消息分区
  • 页缓存
  • 零拷贝
  • 消息压缩
  • 分批发送

Kafka数据清理机制了解过嘛 ?

Kafka中的数据保存在磁盘上以索引(xxxx.index)和日志文件(xxxx.log)的形式存储
日志是分段存储的,一方面能够减少单个文件内容的大小,另一方面,方便kafka 进行日志清理。
日志的清理策略有两个:

  1. 根据消息的保留时间,当消息在kafka中保存的时间超过了指定的时间,就会触发清理过程 log.retention.hours=168 默认7天
  2. 根据topic存储的数据大小,当topic所占的日志文件大小大于一定的阈值,则开始删除最久的消息。

kafka会启动一个后台线程,定期检查是否存在可以删除的消息。log.retention.bytes=1073741824 默认1G

通过上面这两个参数来设置,当其中任意一个达到要求,都会执行删除。

使用Kafka如何实现点对点消息和发布订阅消息

Kafka的点对点消息和发布订阅消息是通过消费者组实现的 , 消费者组(Consumer Group)是由一个或多个消费者实例(Consumer Instance)组成的群组,具有可扩展性和可容错性的一种机制。

  • 点对点模式 : 一个消费者对应一条消息
  • 发布-订阅模式 : 让多个消费者处于不同的组 , 这样不同组中的消费者都能消费同一个分区的数据就是发布-订阅模式

kfk你知道怎么提高消费速度

  1. 并行消费: 如果消息队列支持并行消费,可以增加消费者实例的数量,并将负载均衡到多个消费者上,以加快消息处理速度。
  2. 批量处理: 将多个消息批量处理,而不是逐条处理。这可以减少网络开销和系统调用次数,提高处理效率。
  3. 异步处理: 将消费者与生产者解耦,采用异步处理方式。消费者可以将消息放入内存队列中,然后由异步处理器负责处理,从而提高整体吞吐量。
  4. 优化消费者代码: 优化消费者代码,避免不必要的计算、IO 操作或者同步阻塞。确保消费者代码的效率和性能。
  5. 增加分区: 如果消息队列支持分区,可以增加分区的数量,以分散消息的负载并提高并行处理能力。
  6. 调整配置: 根据系统负载和性能需求,调整消息队列和消费者的配置参数,如线程池大小、最大连接数等。
  7. 监控和优化: 使用监控工具监视系统性能,并根据监控结果进行优化,及时发现并解决潜在的性能瓶颈。

kfk为什么这么快

  1. 分布式架构: Kafka 是一个分布式系统,它可以水平扩展到多个节点上。这意味着可以通过增加更多的节点来增加整个系统的吞吐量和容量,从而实现高性能。
  2. 分区和副本: Kafka 的主题(topic)可以分为多个分区(partition),每个分区可以在不同的节点上进行读写操作,实现了数据的并行处理。此外,Kafka 还支持副本机制,可以将数据复制到多个节点上,提高了数据的可靠性和容错性。
  3. 零拷贝技术: Kafka 使用零拷贝(Zero-Copy)技术来优化数据的传输过程。在数据从生产者到消费者的传输过程中,避免了数据在内存中的多次复制,减少了CPU和内存的开销,提高了数据传输的效率。
  4. 顺序读写: Kafka 的设计着重于支持大规模数据的顺序读写。它通过顺序读写磁盘上的日志文件(log segment),并且允许消息在分区内保持有序,从而最大程度地利用了磁盘和缓存的性能优势。
  5. 零等待设计: Kafka 的设计目标之一是尽量减少对磁盘的等待时间。它采用了一种零等待的设计策略,将数据异步写入磁盘,并通过内存缓冲区和批处理机制来提高写入和读取的效率。
  6. 可配置性: Kafka 提供了丰富的配置选项,可以根据实际需求调整各种参数,如缓冲区大小、压缩算法、数据持久化方式等,从而优化系统的性能和稳定性。
  • 50
    点赞
  • 25
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

来一杯龙舌兰

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值