【Kafka】【七】主题和分区的概念

Kafka中的主题是逻辑概念,用于分类消息。当主题消息量过大时,使用分区解决存储问题,提高读写吞吐量。每个分区存储部分消息,通过hash函数确定消息在__consumer_offsets主题中的分区,此主题用于记录消费者偏移量,保证消费状态。消息默认保存7天后会被删除。
摘要由CSDN通过智能技术生成

主题和分区的概念

主题Topic

主题-topic在kafka中是⼀个逻辑的概念,kafka通过topic将消息进⾏分类。不同的topic会被订阅该topic的消费者消费。

但是有⼀个问题,如果说这个topic中的消息⾮常⾮常多,多到需要⼏T来存,因为消息是会被保存到log⽇志⽂件中的。为了解决这个⽂件过⼤的问题,kafka提出了Partition分区的概念

分区Partition

分区的概念

通过partition将⼀个topic中的消息分区来存储。这样的好处有多个:

  • 分区存储,可以解决统⼀存储⽂件过⼤的问题
  • 提供了读写的吞吐量:读和写可以同时在多个分区中进⾏

在这里插入图片描述

⼀个主题中的消息量是⾮常⼤的,因此可以通过分区的设置,来分布式存储这些消息。⽐如⼀个topic创建了3个分区。那么topic中的消息就会分别存放在这三个分区中。

创建多分区的主题

./kafka-topics.sh \
--create \
--zookeeper 172.16.253.35:2181 \
--replication-factor 1 \
--partitions 2 \
--topic test1
可以通过这样的命令查看topic的分区信息
./kafka-topics.sh \
--describe \
--zookeeper 172.16.253.35:2181 \
--topic test1

kafka中消息⽇志⽂件中保存的内容

  • 00000.log: 这个⽂件中保存的就是消息
  • __consumer_offsets-49:
    kafka内部⾃⼰创建了__consumer_offsets主题包含了50个分区。这个主题⽤来存放消费者消费某个主题的偏移量。因为每个消费者都会⾃⼰维护着消费的主题的偏移量,也就是说每个消费者会把消费的主题的偏移量⾃主上报给kafka中的默认主题:consumer_offsets。因此kafka为了提升这个主题的并发性,默认设置了50个分区。
    • 提交到哪个分区:通过hash函数:hash(consumerGroupId) % __consumer_offsets主题的分区数
    • 提交到该主题中的内容是:key是consumerGroupId+topic+分区号,value就是当前offset的值
  • ⽂件中保存的消息,默认保存7天。七天到后消息会被删除。

在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

BirdMan98

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值