2023年最新kafka常见面试题

2023年最新kafka常见面试题

Kafka的设计时什么样的呢?

  • Kafka将消息以topic为单位进行归纳

  • 将向Kafka topic发布消息的程序成为producers.

  • 将预订topics并消费消息的程序成为consumer.

  • Kafka以集群的方式运行,可以由一个或多个服务组成,每个服务叫做一个broker.

  • producers通过网络将消息发送到Kafka集群,集群向消费者提供消息

数据传输的事物定义有哪三种?

  • 数据传输的事务定义通常有以下三种级别:

    • 最多一次: 消息不会被重复发送,最多被传输一次,但也有可能一次不传输

    • 最少一次: 消息不会被漏发送,最少被传输一次,但也有可能被重复传输.

    • 精确的一次(Exactly once): 不会漏传输也不会重复传输,每个消息都传输被一次而且仅仅被传输一次,这是大家所期望的

Kafka判断一个节点是否还活着有那两个条件?

  • 节点必须可以维护和ZooKeeper的连接,Zookeeper通过心跳机制检查每个节点的连接

  • 如果节点是个follower,他必须能及时的同步leader的写操作,延时不能太久

producer是否直接将数据发送到broker的leader(主节点)?

  • producer直接将数据发送到broker的leader(主节点),不需要在多个节点进行分发,为了帮助producer做到这点,所有的Kafka节点都可以及时的告知:哪些节点是活动的,目标topic目标分区的leader在哪。这样producer就可以直接将消息发送到目的地了

Kafa consumer是否可以消费指定分区消息?

  • Kafa consumer消费消息时,向broker发出"fetch"请求去消费特定分区的消息,consumer指定消息在日志中的偏移量(offset),就可以消费从这个位置开始的消息,customer拥有了offset的控制权,可以向后回滚去重新消费之前的消息,这是很有意义的

Kafka消息是采用Pull模式,还是Push模式?

  • Kafka最初考虑的问题是,customer应该从brokes拉取消息还是brokers将消息推送到consumer,也就是pull还push。在这方面,Kafka遵循了一种大部分消息系统共同的传统的设计:producer将消息推送到broker,consumer从broker拉取消息

  • 一些消息系统比如Scribe和Apache Flume采用了push模式,将消息推送到下游的consumer。这样做有好处也有坏处:由broker决定消息推送的速率,对于不同消费速率的consumer就不太好处理了。消息系统都致力于让consumer以最大的速率最快速的消费消息,但不幸的是,push模式下,当broker推送的速率远大于consumer消费的速率时,consumer恐怕就要崩溃了。最终Kafka还是选取了传统的pull模式

  • Pull模式的另外一个好处是consumer可以自主决定是否批量的从broker拉取数据。Push模式必须在不知道下游consumer消费能力和消费策略的情况下决定是立即推送每条消息还是缓存之后批量推送。如果为了避免consumer崩溃而采用较低的推送速率,将可能导致一次只推送较少的消息而造成浪费。Pull模式下,consumer就可以根据自己的消费能力去决定这些策略

  • Pull有个缺点是,如果broker没有可供消费的消息,将导致consumer不断在循环中轮询,直到新消息到t达。为了避免这点,Kafka有个参数可以让consumer阻塞知道新消息到达(当然也可以阻塞知道消息的数量达到某个特定的量这样就可以批量发

Kafka存储在硬盘上的消息格式是什么?

  • 消息由一个固定长度的头部和可变长度的字节数组组成。头部包含了一个版本号和CRC32校验码。

  • 消息长度: 4 bytes (value: 1+4+n)

  • 版本号: 1 byte

  • CRC校验码: 4 bytes

  • 具体的消息: n bytes

Kafka高效文件存储设计特点:

  • Kafka把topic中一个parition大文件分成多个小文件段,通过多个小文件段,就容易定期清除或删除已经消费完文件,减少磁盘占用。

  • 通过索引信息可以快速定位message和确定response的最大大小。

  • 通过index元数据全部映射到memory,可以避免segment file的IO磁盘操作。

  • 通过索引文件稀疏存储,可以大幅降低index文件元数据占用空间大小。

Kafka 与传统消息系统之间有三个关键区别

  • Kafka 持久化日志,这些日志可以被重复读取和无限期保留

  • Kafka 是一个分布式系统:它以集群的方式运行,可以灵活伸缩,在内部通过复制数据提升容错能力和高可用性

  • Kafka 支持实时的流式处理

Kafka创建Topic时如何将分区放置到不同的Broker中

  • 副本因子不能大于 Broker 的个数;

  • 第一个分区(编号为0)的第一个副本放置位置是随机从 brokerList 选择的;

  • 其他分区的第一个副本放置位置相对于第0个分区依次往后移。也就是如果我们有5个 Broker,5个分区,假设第一个分区放在第四个 Broker 上,那么第二个分区将会放在第五个 Broker 上;第三个分区将会放在第一个 Broker 上;第四个分区将会放在第二个 Broker 上,依次类推;

  • 剩余的副本相对于第一个副本放置位置其实是由 nextReplicaShift 决定的,而这个数也是随机产生的

Kafka新建的分区会在哪个目录下创建

  • 在启动 Kafka 集群之前,我们需要配置好 log.dirs 参数,其值是 Kafka 数据的存放目录,这个参数可以配置多个目录,目录之间使用逗号分隔,通常这些目录是分布在不同的磁盘上用于提高读写性能

  • 当然我们也可以配置 log.dir 参数,含义一样。只需要设置其中一个即可。

  • 如果 log.dirs 参数只配置了一个目录,那么分配到各个 Broker 上的分区肯定只能在这个目录下创建文件夹用于存放数据。

  • 但是如果 log.dirs 参数配置了多个目录,那么 Kafka 会在哪个文件夹中创建分区目录呢?答案是:Kafka 会在含有分区目录最少的文件夹中创建新的分区目录,分区目录名为 Topic名+分区ID。注意,是分区文件夹总数最少的目录,而不是磁盘使用量最少的目录!也就是说,如果你给 log.dirs 参数新增了一个新的磁盘,新的分区目录肯定是先在这个新的磁盘上创建直到这个新的磁盘目录拥有的分区目录不是最少为止。

partition的数据如何保存到硬盘

  • topic中的多个partition以文件夹的形式保存到broker,每个分区序号从0递增,且消息有序

  • Partition文件下有多个segment(xxx.index,xxx.log)

  • segment 文件里的 大小和配置文件大小一致可以根据要求修改 默认为1g

  • 如果大小大于1g时,会滚动一个新的segment并且以上一个segment最后一条消息的偏移量命名

kafka的ack机制

  • request.required.acks有三个值 0 1 -1

  • 0:生产者不会等待broker的ack,这个延迟最低但是存储的保证最弱当server挂掉的时候就会丢数据

  • 1:服务端会等待ack值 leader副本确认接收到消息后发送ack但是如果leader挂掉后他不确保是否复制完成新leader也会导致数据丢失

  • -1:同样在1的基础上 服务端会等所有的follower的副本受到数据后才会受到leader发出的ack,这样数据不会丢失

Kafka的消费者如何消费数据

  • 消费者每次消费数据的时候,消费者都会记录消费的物理偏移量(offset)的位置

  • 等到下次消费时,他会接着上次位置继续消费

消费者负载均衡策略

  • 一个消费者组中的一个分片对应一个消费者成员,他能保证每个消费者成员都能访问,如果组中成员太多会有空闲的成员

数据有序

  • 一个消费者组里它的内部是有序的

  • 消费者组与消费者组之间是无序的

kafaka生产数据时数据的分组策略

  • 生产者决定数据产生到集群的哪个partition中

  • 每一条消息都是以(key,value)格式

  • Key是由生产者发送数据传入

  • 所以生产者(key)决定了数据产生到集群的哪个partition

  • 2
    点赞
  • 11
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
面试涉及Java和Kafka相关的问时,以下是一些常见的Java Kafka面试目: 1. Kafka是什么?它的主要特点是什么? - Kafka是一个分布式流处理平台,用于高吞吐量、低延迟的数据传输和处理。 - 它的主要特点包括高性能、可扩展性、持久性、容错性和可靠性。 2. Kafka的消息发布和订阅模型是怎样的? - Kafka的消息发布和订阅模型是基于主(topic)的。生产者(producer)将消息发布到一个或多个主,而消费者(consumer)则从一个或多个主订阅消息。 3. 在Java中如何使用Kafka的生产者API发送消息? - 使用Kafka的生产者API,可以通过创建一个Producer实例,并使用send()方法发送消息到指定的主。 4. 在Java中如何使用Kafka的消费者API接收消息? - 使用Kafka的消费者API,可以通过创建一个Consumer实例,并使用subscribe()方法订阅一个或多个主。后使用poll()方法来获取消息。 5. 如何保证Kafka消息的可靠性? - Kafka通过将消息持久化到磁盘和复制到多个副本来保证消息的可靠性。生产者可以选择等待所有副本都写入成功后再认为消息发送成功。 6. Kafka的分区是什么?如何确定消息被发送到哪个分区? - Kafka的分区是物理上的概念,用于对消息进行水平拆分和并行处理。每个主可以被分为多个分区。 - 消息被发送到哪个分区是根据生产者在发送消息时指定的键(key)来决定的。Kafka使用哈希算法来将键映射到特定的分区。 这些是一些Java Kafka面试目,涵盖了Kafka的基本概念和使用方式。希望对您有所帮助!如果还有其他问,请随时提问。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

IT枫斗者

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值