面试大杂烩之kafka

面试这个领域最近环境不行,所以卷起来流量挺大 

搭建:

     总体来说 比较简单,主要是配置文件,命令的话分开了producer /consumer/ topic 大概这么个意思。具体可以看里面的博客 

#host配置
#安装包
wget https://archive.apache.org/dist/kafka/3.2.0/kafka_2.13-3.2.0.tgz
#压缩 配置系统变量
#zk集群搭建 当然kafka自带zk 这都行,集群中zk的配置是都需要改的
#3.x kafka提供了kraft取代zk
https://blog.csdn.net/qq_41865652/article/details/126588263

 点对点:生产者 发送 消息 到队列,消费者从队列 取出 并 消费(消费后不再储存)

     一条消息 只会被一个消费者消费,想发给多个消费者 多次发送

发布/订阅:一对多,多个订阅者消费 消息,数据保留指定期限,默认7天

     同一个消费组 中消费者 不能消费同一个partition中的数据

     一个消费者一个分区(消费组)

0.9 偏移量储存在kafka的topic中

   0.9将offset保存在zk中,0.9及后保存在Kafka“__consumer_offsets”主题

生产者

       生产消息追加到log文件,采用分片/索引机制,将每个partition 分为多个segment,每个segment对应2个文件 index log,同一文件夹(topic名称+分区序号)。

同步

    同步:ISR列表(同步副本 里面的follow与leader同步,选择从这个里面选  H W/LEO)

      HW:消费者能看到的offset,isr队列min的LED ,hw-led待同步的消息

          选leader (epoch,offset)二位数组,前面是任期 后面是标识大小谁最新

      follower故障,从isr剔除,恢复后读取上一次HW高于的截取掉 从hw开始向leader同步 加入isr

  • ack-1 数据不丢但会重,生产者pid消息seqnumber 如pid partion seqnumber一样,重复数据
  • 0不重复 丢失

消费者

拉取pull,无消息 死循环,消费者 消费数据时传递timeout参数,当时无数据 等待一段时间再返回

topic多个partion

  • 轮询rountRobin对topic组生效,一个消费组内all消费者订阅主题是一样的
  • rang单个topic生效,数据不均衡

消费者不能同时消费 同组的 同一个分区

分区策略:消费者组 消费者个数 发生变化

offset维护

断电 宕机,消费者恢复后 记录的offset(zk/kafka)

  消费者/topic/partion 确定offset 

流程

producer两个线程,主线程 拦截/序列化/分区==》处理消息 到 消息累加器(32M / 队列) producerBatch批量发送到sender线程,批量组织request 给selector 送到kafka

   kafka 数据 存储在 pageCache 异步刷盘 flusher 追加到日志文件

       partition . segment:

            log 存储数据 位置:offset 

            index索引,相对位移:物理位置;稀疏索引  msg设置指针 mmap进行内存操作

   被消费ack 清缓存

   消费者带着offset,去fetch 利用sendfile底层NIO(transferTo/transferFrom)

消费者能力不足:

原因:

  • 大量数据流 consumer崩溃 rebalance 消费速率下降
  • 洪峰时consumer从broker取出大量数据,在session.timeout.ms内没有消费完 consumer coordinator没有接受到心跳 挂断,自动提交offset失败(重新分配partition重新消费超时死循环),触发rebalance 
  • kafka限速

rebalance本质是协议,consumer group下all消费者如何达成一致分配订阅topic每个分区

     coordinator执行consumer group管理

  1. 组成员变更,新consumer入组 consumer离开/崩溃
  2. 主题变更,使用正则进行订阅,新建正则匹配到topic触发rebalance
  3. 订阅主题分区数变化
partition分配的高效率
  1. consumer都要和coordinator连接
  2. coordinator选出一个consumer作为leader分配partition
  3. leader分配完后通知coordinator,由coordinator通知其他consumer
  4. 如一个consumer不能工作(心跳 session_timeout),coordinator触发rebalance重新分配partition
delayed_task

    取出一批数据/执行delayed_task/循环yield这批数据/重复执行上述过程

    consumer的offset提交机制定时向delayed_task加入autoCommitTask,衡量数据/时间 是否提交

offset提交失败

   topicPartition提交单元,consumer消费 发送rebalance,当前消费分配到的partition>1,这个partition分配给其他consumer,如已经被消费再提交offset commitOffsetError,因为partition不属于自

   producer带上create_time字段

   https://zhuanlan.zhihu.com/p/33238750

消费者挂了之后重启 直接消费最新的数据,历史数据另起线程补漏

     或者从上一次提交offset开始,积压量大 增加任务处理能力

分区少了,数据量大增加分区数

优化/解决

分区数量不能太小/生产者key要均匀(增加随机后缀 均衡分布)

增加消费者数量,或者每次拉取的(合理)数量

主题增加分区,消费者并行处理能力

优化消费逻辑,多线程

max.poll.interval.msrang消费者更长时间处理消息

监控 报警 /及时调整

   kafka内置指标

kafka stream:内置了自适应调节机制

数据清理策略:及时清理

    数据量太大 生成很多文件 占磁盘空间

   设置cleanup.policy清理特定大小日志文件,时间点清理

   压缩操作对topic每个键处理,清理重复项,保留最后一个值

kafka调优_kafka 关闭flush-CSDN博客

启动kafka压缩

   compression.type,none不压缩/lz4压缩 加大cpu开销

升级版本

命令

topic的./bin/kafka-topics.sh

生产者./bin/kafka-console-producer.sh

消费者./bin/kafka-console-consumer.sh

百度安全验证

https://zhuanlan.zhihu.com/p/347822019

大数据之Kafka(心得)_集群级kafka数据消费的挑战与实践-CSDN博客

Kafka集群搭建及生产者消费者案例_kafka 消费者组 多机器-CSDN博客

  • 23
    点赞
  • 17
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值