Kafka面试题


序号内容链接地址
1Java面试题https://blog.csdn.net/golove666/article/details/137360180
2JVM面试题 https://blog.csdn.net/golove666/article/details/137245795
3Servlet面试题 https://blog.csdn.net/golove666/article/details/137395779
4Maven面试题 https://blog.csdn.net/golove666/article/details/137365977
5Git面试题https://blog.csdn.net/golove666/article/details/137368870
6Gradle面试题https://blog.csdn.net/golove666/article/details/137368172
7Jenkins 面试题 https://blog.csdn.net/golove666/article/details/137365214
8Tomcat面试题 https://blog.csdn.net/golove666/article/details/137364935
9Docker面试题 https://blog.csdn.net/golove666/article/details/137364760
10多线程面试题 https://blog.csdn.net/golove666/article/details/137357477
11Mybatis面试题 https://blog.csdn.net/golove666/article/details/137351745
12Nginx面试题 https://blog.csdn.net/golove666/article/details/137349465
13Spring面试题 https://blog.csdn.net/golove666/article/details/137334729
14Netty面试题https://blog.csdn.net/golove666/article/details/137263541
15SpringBoot面试题https://blog.csdn.net/golove666/article/details/137192312
16SpringBoot面试题1 https://blog.csdn.net/golove666/article/details/137383473
17Mysql面试题 https://blog.csdn.net/golove666/article/details/137261529
18Redis面试题 https://blog.csdn.net/golove666/article/details/137267922
19PostgreSQL面试题 https://blog.csdn.net/golove666/article/details/137385174
20Memcached面试题 https://blog.csdn.net/golove666/article/details/137384317
21Linux面试题https://blog.csdn.net/golove666/article/details/137384729
22HTML面试题 https://blog.csdn.net/golove666/article/details/137386352
23JavaScript面试题 https://blog.csdn.net/golove666/article/details/137385994
24Vue面试题https://blog.csdn.net/golove666/article/details/137341572
25Ajax面试题https://blog.csdn.net/golove666/article/details/137421929
26Python面试题 https://blog.csdn.net/golove666/article/details/137385635
27Spring Cloud Alibaba面试题 https://blog.csdn.net/golove666/article/details/137372112
28SpringCloud面试题 https://blog.csdn.net/golove666/article/details/137345465
29RabbitMQ面试题 https://blog.csdn.net/golove666/article/details/137344188
30Dubbo面试题 https://blog.csdn.net/golove666/article/details/137346834
31Elasticsearch面试题https://blog.csdn.net/golove666/article/details/137348184
32Oracle面试题https://blog.csdn.net/golove666/article/details/137350452
33Android面试题https://blog.csdn.net/golove666/article/details/137358253
34Kafka面试题 https://blog.csdn.net/golove666/article/details/137358607
35ZooKeeper面试题 https://blog.csdn.net/golove666/article/details/137359255
36Kubernetes面试题 https://blog.csdn.net/golove666/article/details/137365540
37Flink面试题 https://blog.csdn.net/golove666/article/details/137369555
38Hadoop面试题https://blog.csdn.net/golove666/article/details/137370194
39Hive面试题https://blog.csdn.net/golove666/article/details/137371835
40Hbase面试题 https://blog.csdn.net/golove666/article/details/137381853
41Spark面试题https://blog.csdn.net/golove666/article/details/137382815
42Golang面试题 https://blog.csdn.net/golove666/article/details/137395486
43Solr面试题 https://blog.csdn.net/golove666/article/details/137420799

1 Kafka 基础

1.1 什么是 Apache Kafka?

Apache Kafka 是一个分布式流媒体平台,由 LinkedIn 开发并于2011年贡献给 Apache 软件基金会,现在是一个开源项目。Kafka 设计用来处理高吞吐量的数据流,并支持将数据持久化到磁盘。它通常用于构建实时数据管道和流式应用程序。

Kafka 主要具有以下几个关键特性:

  1. 高吞吐量:针对磁盘数据结构进行了优化,使 Kafka 能够提供高数据吞吐量,远超传统消息队列系统。

  2. 可扩展性:Kafka 可以通过添加更多的节点来横向扩展,无需停机即可扩展。

  3. 持久性和可靠性:数据被复制到集群中的多个节点,以防止数据丢失。Kafka 保证了在指定的复制因子下的消息不会丢失。

  4. 容错:支持通过多副本机制容忍节点失败,维持服务的可用性。

  5. 实时性:Kafka 适用于需要低延迟和实时处理的场景。

  6. 离线和在线数据处理:Kafka 不仅支持实时数据处理,也支持离线数据处理。

在 Kafka 生态系统中,主要有以下几个组件:

  • Producer:消息生产者,负责生产和发送消息到 Kafka topic。
  • Consumer:消息消费者,用来订阅 topic 并处理其发布的消息。
  • Broker:Kafka 集群中的节点被称为 broker,负责存储数据和处理客户端请求。
  • Topic:消息主题,是消息的分类名称。
  • Partition:Topic 的物理分区,每个 Partition 是一个有序且不变的消息序列。
  • Offset:Partition 中消息的唯一标识,表示消息在 Partition 中的位置。

Kafka 常用于构建实时的数据管道来可靠地传输数据,以及建立可以从多个来源获取数据并加载到数据湖、数据仓库或实时应用程序的流处理系统。它广泛应用于日志收集、流处理、事件源、实时监控等场景。

1.2 Kafka 的主要组件和架构是什么?

Apache Kafka 是一个高吞吐量、分布式、发布-订阅消息系统,它通常用于处理实时的大数据流。Kafka 主要是用于构建实时数据管道和流处理应用程序。以下是 Kafka 系统的主要组件和架构:

1. 生产者(Producer)

  • 生产者是发送消息到 Kafka 集群的客户端应用程序或服务。
  • 它负责创建消息,并将消息发布(发送)到 Kafka 中的指定主题(topic)。
  • 生产者可以通过负载均衡将消息发送到主题的不同分区。

2. 消费者(Consumer)

  • 消费者是从 Kafka 集群中读取消息的客户端应用程序或服务。
  • 它通过订阅一个或多个主题,来拉取数据并处理。
  • 消费者可以独立使用,也可以是消费者组的一部分,以共同消费一个主题的消息。

3. 主题(Topic)

  • 主题是 Kafka 中一个特定类别或feed的消息集合。
  • 主题在逻辑上被划分为一个或多个分区(partition)。

4. 分区(Partition)

  • 分区是 Kafka 用于分散消息负载的一种机制。单个主题可以跨多个分区,分区可以跨多个 Kafka 服务器或 Broker 分布。
  • 每个分区都是有序的,且不变的消息序列,且每条消息都会分配一个序列 ID,称为偏移量(offset)。

5. 偏移量(Offset)

  • 偏移量是每条消息在日志中的唯一标识。Kafka 通过主题、分区和偏移量来唯一确定一条消息。

6. Broker

  • Broker是 Kafka 集群中的一个服务节点。
  • 每个 Broker 都可以容纳数百到数千的分区,并可以处理大量的消息的读写。
  • 一个 Kafka 集群由多个 Broker 组成,以便实现负载均衡和容错。

7. Zookeeper

  • Kafka 使用 Zookeeper来管理集群状态、选举 Leader 和实现分布式协调。
  • Zookeeper 作为集中式服务,提供了集群管理需要的元数据、配置信息和命名服务。

Kafka 的架构

Kafka 的架构设计允许它高效地处理大量的消息。以下是 Kafka 架构的一些关键特征:

  • 分布式:Kafka 是分布式的,可以在多个服务器或节点上扩展。
  • 持久化:Kafka 将消息持久化到磁盘并支持消息的重复读取。
  • 高吞吐量:由于对磁盘和网络 I/O 的优化,Kafka 能够支持高吞吐量的消息。
  • 容错性:Kafka 通过主题的分区副本(replication)来保证容错性。
  • 可伸缩性:可以轻松扩展 Kafka 集群以应对更大的负载。

总之,Kafka 提供了一套完整的消息队列系统,优化了数据的处理流,非常适合构建需要可靠的实时数据管道和流处理的系统。

1.3 Kafka 中的 Topic、Partition 和 Offset 是什么?

在 Apache Kafka 中,Topic、Partition 和 Offset 是消息数据结构的核心概念,构成了 Kafka 高效存储和传输消息的基础。

Topic(主题)

Topic 是 Kafka 中消息的分类名称,代表了一个特定的消息队列或消息频道。你可以按照应用的需求创建多个 Topic。在实践中,通常会按照消息的业务类型或用途来命名 Topic。生产者(Producers)将消息发送到特定的 Topic,消费者(Consumers)则从这些 Topic 读取消息。在 Kafka 集群中,Topic 是跨多个服务器节点分布式存储的。

Partition(分区)

为了实现可伸缩性和并行处理,每个 Topic 内部被分割为多个 Partition。Partition 是消息写入的基本单元,每个 Partition 都是一个有序的不可变消息序列。通过将 Topic 分割为多个 Partition,Kafka 能够:

  • 并行处理数据,以提高吞吐量。
  • 在集群节点之间分布数据,来提高可伸缩性和容错性。
  • 保证同一个 Partition 内的消息是有序的。

每个 Partition 都可以被复制到多个 Kafka 节点上,这样做可以保障 Partition 的数据在节点发生故障时仍然可用。

Offset(偏移量)

Offset 是每条消息在 Partition 中的唯一标识符。它是一个长整型数字,表示消息在此 Partition 中的位置。在一个 Partition 中,每条消息都有一个递增的 Offset 数值,这意味着 Kafka 不依赖于时间戳来保持消息的顺序,而是通过 Offset 来确保消息的承诺。

消费者可以利用 Offset 跟踪自己已经读到哪个位置,同时可以根据 Offset 对消息进行随机访问。这意味着,消费者可以从他们暂停的地方恢复读取,或者如果需要,可以回到某个旧的 Offset 重新读取数据。

总结

  • Topic 是消息发布的目的地,代表了一个具体的消息通道。
  • Partition 是针对 Topic 的水平切割,使 Topic 能在集群的多个节点之间扩展,同时保持消息的局部有序性。
  • Offset 是消息在 Partition 中位置的标识,用来追踪每个消费者已经消费到哪一条消息。

Kafka 通过结合这三个概念提供了高性能、高吞吐量和容错性高的分布式消息系统,适用于大规模的数据流处理应用。

2 Kafka 生产者

2.1 解释 Kafka 生产者和消息发送的过程。

Apache Kafka 是一个高吞吐量的分布式消息系统,它通过发布-订阅的模式来处理流式数据。在Kafka中,生产者(Producer)是发送消息到Kafka主题(Topic)的客户端应用程序或服务。

以下是Kafka生产者和消息发送过程的细节:

生产者配置

在发送消息之前,需要创建并配置一个Kafka生产者。主要配置项包括:

  • bootstrap.servers:包含Kafka集群中至少一个broker的地址列表。
  • key.serializervalue.serializer:键和值的序列化器类,负责将发送的对象转换为字节流。
  • acks:生产者得到broker确认的程度(“0”、“1”、“all”或“-1”)。
Properties props = new Properties();
props.put("bootstrap.servers", "localhost:9092");
props.put("key.serializer", "org.apache.kafka.common.serialization.StringSerializer");
props.put("value.serializer", "org.apache.kafka.common.serialization.StringSerializer");
props.put("acks", "all");

KafkaProducer<String, String> producer = new KafkaProducer<>(props);

消息发送

一旦生产者配置好,可以使用send()方法发送消息。可以只发送消息值,也可以同时发送键和值。这通常是异步进行的。

ProducerRecord<String, String> record = new ProducerRecord<>(topicName, key, value);
producer.send(record);

等待确认

如果需要确认消息是否成功发送,可以等待send()方法返回的Future或者使用回调。

producer.send(record, (metadata, exception) -> {
    if (exception == null) {
        // 消息发送成功,处理 metadata
    } else {
        // 消息发送失败,处理异常
    }
});

消息分区

生产者可以指定消息发送到主题的哪个分区,如果未指定,则使用分区器(Partitioner)根据消息键自动选择分区。

消息持久化

消息发送到broker后,根据acks配置,生产者会等待不同级别的确认:

  • acks=0:生产者不等待确认,继续发送下一个消息。
  • acks=1:只要分区的Leader已写入消息,就会返回确认。
  • acks=allacks=-1:Leader会等待所有副本都写入消息后才返回确认。

关闭生产者

最后,在完成消息发送后,应该关闭生产者以释放资源:

producer.close();

生产者在发送消息时,会负责处理消息的序列化和分区,以及可选的消息确认。正确配置生产者和处理发送逻辑对确保消息正确到达Kafka主题是至关重要的。

2.2 生产者如何保证消息的可靠性?

保证消息的可靠性是消息队列和分布式系统中的重要议题。为了使生产者(Producer)可以可靠地发送消息,有几种常用的方法和策略可以应用:

  1. 消息持久化(Message Persistence)

    • 将消息存储在持久化存储(如硬盘)上以防止消息丢失,这通常由消息队列系统提供。
  2. 确认机制(Acknowledgments)

    • 生产者发送消息后等待来自消息系统的确认响应(ack),只有在收到 ack 后才认为消息发送成功。
    • 如果没有收到 ack 或收到 nack(negative-acknowledgment),生产者可以重试发送。
  3. 事务支持(Transactions)

    • 将消息发送操作放在事务中,要么全部成功,要么全部失败。
    • 确保消息的发送和业务数据的写入操作具有原子性。
  4. 幂等性(Idempotency)

    • 设计生产者发送的消息处理机制为幂等性,即重复发送同一消息不会对接收端产生额外影响。
    • 这常常需要额外的逻辑,比如为每个消息分配一个唯一的 ID 并在消息系统或业务逻辑中进行去重检查。
  5. 合理配置重试策略(Retry Strategies)

    • 设置合理的重试间隔和重试次数,防止因为网络或临时故障导致的消息发送失败。
    • 避免无限制的重试,这可能会造成消息队列过载或消息重复发送。
  6. 日志记录(Logging)

    • 记录发送的每个消息的详细日志,以便在发生问题时跟踪和审计。
  7. 死信队列(Dead Letter Queue)

    • 设置死信队列来处理无法正确路由或多次重试仍然失败的消息。
  8. 端到端消息跟踪(End-to-End Message Tracing)

    • 实现能够追踪消息从生产者到消费者整个流程的机制,便于排错和分析。
  9. 消息队列服务的高可用性和冗余

    • 使用支持集群、数据复制和故障转移的消息队列服务,以确保消息系统本身不会成为单点故障。
  10. 智能的消息路由(Smart Message Routing)

    • 配置生产者使用智能路由以应对队列不可用的情况,如根据路由键智能选择队列。

不同的消息中间件和系统(如 RabbitMQ、Kafka、ActiveMQ)可能提供不同的配置选项和机制来支持上述策略。重要的是要搭配合适的业务逻辑和错误处理来达到保证消息可靠性的目的。无论选择何种策略,开发者都需要权衡各种因素,包括性能、成本、复杂性和业务需求。

2.3 什么是生产者的 ‘acks’ 配置?

在 Apache Kafka 中,生产者的 'acks' 配置用于指定必须在认为请求完成之前接收的确认量。这个设置影响到消息的持久性以及生产者的吞吐量。

生产者的 'acks' 配置可以有以下几种设置:

acks=0

如果设置为'0',生产者将不会等待来自服务器端的任何确认。也就是说,一旦生产者发送数据,它不会等待 Broker 的任何响应,直接继续发送下一个消息。这种配置的优点是网络的延迟最小,可以达到最高的吞吐量,但是最大的风险是数据的丢失。如果 Broker 出现问题或没有收到消息,生产者将不会知道并且不会重新发送消息。

acks=1

如果设置为'1',生产者会等待 Leader 副本接收到数据之后再发送下一份数据。这时,如果数据成功到达 Leader 组,并得到响应,生产者就会认为写入操作成功。这提供了中等级别的数据持久保证,因为如果 Leader 在发送给 Follower 副本之前崩溃,数据可能会丢失。

acks=all 或 acks=-1

如果设置为'all'(或等价的'-1'),生产者将会等待全体副本确认消息,才认为消息成功发送。在这种配置下,只要有一个同步副本存活,消息就不会丢失。这提供了最高级别的数据持久性保证,但是它会增加数据发送的延迟,并且吞吐量会受到影响。

示例

Java 生产者的 'acks' 配置示例:

Properties props = new Properties();
props.put("bootstrap.servers", "localhost:9092");
props.put("key.serializer", "org.apache.kafka.common.serialization.StringSerializer");
props.put("value.serializer", "org.apache.kafka.common.serialization.StringSerializer");
props.put("acks", "all");

KafkaProducer<String, String> producer = new KafkaProducer<>(props);

选择哪种确认模式?

选择 'acks' 的适当配置依赖于用例和系统要求。如果你的系统需要最高级别的数据保证,并且可以容忍一些额外的延迟,则 acks=all 是最好的选择。如果系统更重视吞吐量,而一些数据丢失是可以接受的,那么 acks=0 可能更合适。acks=1 是介于这两者之间的折中选择。

3 Kafka 消费者

3.1 如何在 Kafka 中创建消费者并订阅主题?

在 Kafka 中创建消费者并订阅主题通常涉及以下步骤:

  1. 添加依赖
    如果你使用的是 Java 和 Maven,确保在 pom.xml 文件中添加 Kafka 客户端的依赖。

  2. 配置消费者
    实例化 Properties 对象并设置必要的消费者属性。最基本的配置包括指定 Kafka 集群的连接地址(bootstrap.servers)、消费者组 ID(group.id)、键的反序列化器(key.deserializer)和值的反序列化器(value.deserializer)。

  3. 创建 KafkaConsumer 实例
    使用前面配置好的 Properties 对象创建 KafkaConsumer 实例。

  4. 订阅主题
    使用 subscribe() 方法订阅一个或多个 Kafka 主题。

  5. 拉取并处理消息
    在循环中使用 poll() 方法拉取新消息,并对这些消息进行处理。

  6. 关闭消费者
    在适当的时候(例如应用程序关闭时)记得关闭消费者,以释放资源和提交最后的偏移量。

以下是使用 Java 创建 Kafka 消费者并订阅主题的代码示例:

import org.apache.kafka.clients.consumer.KafkaConsumer;
import org.apache.kafka.clients.consumer.Consumer;
import org.apache.kafka.clients.consumer.ConsumerRecords;
import org.apache.kafka.clients.consumer.ConsumerRecord;

import java.util.Arrays;
import java.util.Properties;
import java.time.Duration;

public class KafkaExampleConsumer {
    public static void main(String[] args) {
        Properties props = new Properties();
        props.put("bootstrap.servers", "localhost:9092"); // Kafka集群在哪里?
        props.put("group.id", "test-consumer-group"); // 消费者组 ID
        props.put("key.deserializer", "org.apache.kafka.common.serialization.StringDeserializer"); // key的反序列化类
        props.put("value.deserializer", "org.apache.kafka.common.serialization.StringDeserializer"); // value的反序列化类

        // 创建消费者
        Consumer<String, String> consumer = new KafkaConsumer<>(props);
        // 订阅 topic
        consumer.subscribe(Arrays.asList("topic-name"));

        // 在应用程序中持续监听新的消息
        try {
            while (true) {
                ConsumerRecords<String, String> records = consumer.poll(Duration.ofMillis(100));
                for (ConsumerRecord<String, String> record : records) {
                    System.out.printf("offset = %d, key = %s, value = %s%n", record.offset(), record.key(), record.value());
                }
            }
        } finally {
            consumer.close(); // 最后关闭消费者,连接资源与socket连接会随之释放
        }
    }
}

运行上述程序,Kafka 消费者会连接到 Kafka 集群 localhost:9092 上的 topic-name 主题并开始消费消息。

注意:要确保消息被正确处理,可以考虑在处理完每条消息之后显式地提交偏移量。此外,异常处理也很重要,需要处理可能出现的异常,如连接失败、主题不存在等。

3.2 Kafka 中的消费组是什么意思?

在 Apache Kafka 中,消费组(Consumer Group)是一种设计模式,用于实现对消息的并行消费,并将消费者组织起来共同消费同一个主题(Topic)的消息。

主要特点和概念

  1. 组内消费:每个主题可以被一个或多个消费组订阅,每个消费组内可以有一个或多个消费者(Consumer)实例,组内的所有消费者共同消费该主题的消息,确保主题中的每个消息只被消费组中的一个消费者处理。

  2. 消息分配:主题中的消息被分布在多个分区(Partition)中,一个消费组中,每个消费者可以读取一个或多个分区中的消息。分区是消费者并行消费的基础,一个分区只会被消费组中的一个消费者读取,以确保消息顺序消费。

  3. 负载均衡:如果消费组中的消费者数量发生变化(如有新消费者加入或者现有消费者挂掉),Kafka将自动重新分配分区和消费者之间的关系,以保持负载均衡。

  4. 持久化进度:消费组中的消费者完成消息处理后,会定期把当前读取消息的位移(Offset)同步回 Kafka。这样即使消费者发生重启或故障,也能从上次的位置继续消费,避免消息的重复消费或丢失。

使用场景

消费组在 Kafka 中非常重要,它允许单个主题的高吞吐量数据被多个消费者实例平行处理:

  • 水平伸缩:你可以通过增加消费者实例的方式来伸缩应用,处理更多的消息。

  • 容错:消费组内的消费者随时可以加入或退出,组内的其他消费者会接管失效消费者的工作。

  • 工作队列:消费组可以作为工作队列使用,分担并行处理任务。

使用消费组,Kafka 能够在消费者之间实现有效的工作共享,优化资源使用并提高整体处理速度。复杂的分布式系统能通过消费组机制实现高效、可靠、可伸缩的数据处理流程。

3.3 消费者如何实现负载均衡和故障转移?

在消息队列系统(如 Apache Kafka、RabbitMQ)和微服务架构中,消费者负载均衡和故障转移是确保高可用性和性能的关键特性。以下是这些特性的简介以及它们是如何在 Kafka 中实现的。

负载均衡(Load Balancing)

负载均衡指的是在多个消费者之间平均分配工作量的机制,使得每个消费者都得到合理的负载,并最大化系统的整体吞吐量。在 Kafka 中,负载均衡通常用消费者组来实现。

消费者组

  • 消费者加入到消费者组中,并订阅特定的 Topic。
  • Kafka 确保每个 Partition 最多由一个消费者组中的一个消费者来处理,这个过程称为消费者与 Partition 的绑定。
  • 当新的消费者加入组或旧的消费者离开组时(可能由于故障或维护),组内的消费者将自动重新分配 Partition,这称为再均衡操作(Rebalance)。
  • 这样可以保证所有活跃消费者都能分享工作负载,并在消费者数量变化时实现动态的负载调整。

故障转移(Failover)

故障转移是当某个消费者失败后,系统自动重新分配其工作给其他可用消费者的过程。在 Kafka 中,故障转移是通过重新平衡来实现的。

故障转移过程

  • 如果一个消费者失效(例如,由于网络问题或崩溃),Kafka 的消费者组协调器(通常是一个代理)将检测到它不再提交心跳信号。
  • 组协调器会触发一次再均衡,把失败消费者负责的 Partition 分配给组内的其他活跃消费者。
  • 新的消费者从上次提交的 Offset 开始读取数据,并继续处理消息。

实现注意事项

  • 心跳和会话超时:消费者定期向组协调器发送心跳信号,以表明它们是活跃的。心跳间隔和会话超时的配置对故障检测和再均衡速度至关重要。
  • 提交 Offset:消费者应该定期提交已处理消息的 Offset。这样在故障转移后,新的消费者可以从上次已确认的位置开始消费,避免消息的重复处理或遗漏。
  • 幂等性和事务:为避免消费者故障引起的消息重复消费影响,可以启用 Kafka 的幂等性和事务特性。

通过这些机制,Kafka 能够确保消息被可靠地处理,即使在消费者数量变化或发生故障的情况下也能保持系统的稳定性和一致性。其他消息队列系统也有类似的负载均衡和故障转移机制,尽管具体实现的细节可能不同。

4 Kafka 高级特性

4.1 Kafka 中消息的压缩方式有哪些?

在 Kafka 中,为了节省网络带宽和存储空间,生产者可以在发送消息之前对消息进行压缩。压缩对于提高大型消息系统的性能是非常有益的,尤其是在涉及大量数据传输的场景。Kafka 支持多种消息压缩算法,每种算法都有其特定的使用场景和性能特性。

截至知识截止日期(2023年),Kafka 支持以下压缩方式:

  1. 无压缩

    • 默认情况下,消息不会被压缩。
    • 生产者配置:compression.type=none
  2. GZIP

    • 通用的压缩算法,提供了较高的压缩比,但相对于其他算法有更高的CPU使用率。
    • 适用于压缩率更重要的场景。
    • 生产者配置:compression.type=gzip
  3. Snappy

    • 谷歌开发的压缩算法,以减少CPU负载和提高速度为目标,压缩率略低于GZIP。
    • 适用于对延迟敏感的场景。
    • 生产者配置:compression.type=snappy
  4. LZ4

    • 高性能压缩算法,比Snappy提供稍高的压缩率,压缩和解压速度快。
    • 也适用于对延迟敏感的场景。
    • 生产者配置:compression.type=lz4
  5. ZSTD (Zstandard)

    • Facebook开发的压缩算法,提供了很高的压缩比和良好的性能。
    • Kafka 2.1.0及后续版本支持此压缩类型。
    • 生产者配置:compression.type=zstd

选择哪种压缩方式应基于对消息大小、网络带宽、存储空间、CPU利用率以及消息生产和消费速度的权衡。例如,如果带宽是限制因素,可以选择压缩比高的算法,如GZIP或ZSTD;如果延迟是关键考虑因素,则选择Snappy或LZ4可能更合适。

压缩和解压缩通常在生产者和消费者端自动进行,并且对用户是透明的。在生产者端,可以通过修改配置compression.type来设置压缩类型,而在消费者端则无需做任何特殊配置,因为消费者可以自动检测并处理压缩过的消息。

需要注意的是,压缩是在批量消息级别进行的,而不是单个消息级别。这意味着对于频繁发送小批量消息的生产者,压缩可能不会带来太大益处,反而会因为压缩和解压缩而有额外的CPU开销。因此,压缩更适用于批量发送或消息体积较大的场景。

4.2 解释 Kafka 中的日志压缩(Log Compaction)。

Apache Kafka 中的日志压缩(Log Compaction)是 Kafka 的一项特性,它旨在优化 Kafka 长期存储消息的能力。而不像标准的基于时间或大小的删除策略,日志压缩保留消息的最后一个版本以及所有新到的更新。它适用于那些每个键只需要最新值的应用场景 —— 典型的如数据库更改日志。

工作原理:

Kafka 的日志压缩是针对每个分区的,背后的基本理念是:

  • Kafka 中的所有消息都是以键值对的形式存储的。
  • 在启用了日志压缩的主题中,Kafka 保留每个键的最后一条记录,并且定期清理旧的记录。
  • 在清理过程中,若消息没有键或键为null,这些消息将被删除。
  • 如果键非空,Kafka 则会删除该键的所有其他记录,只留下该键的最新记录。

日志压缩确保在消费者从头消费消息时,至少会看到每个键的最后一个值。这是保持数据库表的最新状态快照的理想之美。

压缩过程:

日志压缩是一个持续的背景进程,它按照以下几个步骤工作:

  1. 清理器线程:Kafka 集群中的清理器线程监视哪些分区启用了压缩。
  2. 对数段的选择:选取一定的日志段(segments)来进行压缩,通常选择那些不再是活跃写入的旧日志段。
  3. 日志压缩:清理器对选定的日志段执行压缩操作,通常会生成一个新的日志文件,其中只包含每个键的最新消息。
  4. 替换旧日志段:一旦压缩完成,新日志将取代原来的日志段。

使用场景:

  • 日志压缩对于需要长期存储数据的 Kafka 使用场景非常重要,如事件溯源、KTable 层面的状态恢复或更新数据库状态。
  • 它适用于消息具有键值对结构的场景,特别是当这些键代表实体的唯一标识符,并且消息代表这些实体的状态变更时。

配置:

要在 Kafka 主题中启用日志压缩,需要进行相关的主题配置:

  • 在创建主题的时候,设置cleanup.policy配置为compact
  • 还可以配置压缩进程的详细参数,比如min.cleanable.dirty.ratio(决定何时触发压缩),segment.ms(影响在压缩前日志段保持打开多长时间)等。

日志压缩保证了长期存储在 Kafka 分区中的数据有效性和完整性,同时使存储空间使用更加高效。需要注意的是,日志压缩和删除策略并不是互斥的:它们可以共同运行,为 Kafka 提供了一种多样化的数据过期处理方式。

4.3 Kafka 如何实现消息的幂等与事务?

Apache Kafka 中的幂等性和事务能确保消息传递的可靠性和一致性。下面简要介绍 Kafka 是如何实现这两个特性的:

幂等性(Idempotence)

幂等性意味着发送端可以尝试多次发送同一条消息,而系统保证消息只被接收一次,不会因为重复发送而产生副本。这解决了因为网络问题或其他原因导致的消息重复的问题。

在 Kafka 0.11 版本以后,可以在生产者端(Producer)配置幂等性,以保证单个生产者会话中的消息不会重复。开启幂等性的配置很简单:

Properties props = new Properties();
props.put("bootstrap.servers", "kafka-broker:9092");
props.put("key.serializer", "org.apache.kafka.common.serialization.StringSerializer");
props.put("value.serializer", "org.apache.kafka.common.serialization.StringSerializer");
props.put("enable.idempotence", true); // 开启幂等性
KafkaProducer<String, String> producer = new KafkaProducer<>(props);

Kafka 的幂等性是通过将生产者的 ProducerIdSequence Number 与消息一起发送来实现的。Kafka broker 检查到序列号是连续的或消息已存在,则接受新消息;如果发现序列号小于预期或消息已存在,则拒绝重复的消息。

事务(Transactions)

事务允许生产者在多个分区和主题之间发送一组消息,这一组消息要么都被提交(写到日志),要么都不提交。Kafka 在 0.11 版本中引入了事务功能,它可以保证跨分区的原子写入。

为了在 Kafka 中使用事务,生产者需要配置事务 ID,并且每个事务都要明确地开始和结束:

props.put("transactional.id", "my-transactional-id");
KafkaProducer<String, String> producer = new KafkaProducer<>(props);
producer.initTransactions();

try {
    producer.beginTransaction();
    for (int i = 0; i < 100; i++) {
        producer.send(new ProducerRecord<>("my-topic", Integer.toString(i), "value-" + i));
    }
    producer.commitTransaction(); // 提交事务,确保所有消息都被写入
} catch (ProducerFencedException | OutOfOrderSequenceException | AuthorizationException e) {
    // 遇到不可恢复的异常,直接中断操作
    producer.abortTransaction(); // 终止事务
} catch (KafkaException e) {
    // 遇到可能重试的异常
    producer.abortTransaction();
}

对于消费者而言,为了确保只有已提交的事务被消费,需要设置 read_committed 参数作为隔离级别:

props.put("isolation.level", "read_committed");
KafkaConsumer<String, String> consumer = new KafkaConsumer<>(props);

这样,消费者将只读取到那些已经提交的事务消息。

注意事项

  • 开启幂等性和事务会增加一些网络和性能开销,因为 kafka 需要跟踪额外的信息,确保消息的状态一致性。
  • 使用事务时,需要保证应用程序在任何时候崩溃,都可以安全地继续或者回滚事务,以避免事务留在不一致的状态。

通过这些特性,Kafka 提供了强大的消息一致性保证,使得它非常适合需要高度可靠数据传输的应用场景。

5 Kafka 监控与维护

5.1 Kafka 集群的监控指标有哪些?

在监控 Kafka 集群时,关注以下指标可以帮助你了解集群的健康状况和性能表现:

通用指标:

  1. Broker 指标

    • Broker 上下线:跟踪集群中 Broker 的状态,是否有 Broker 下线。
    • 网络请求率:Broker 处理请求的速率。
    • 网络 I/O:网络流入和流出的数据量。
    • 请求延迟:请求处理的平均时间。
    • CPU 使用率:Broker 的 CPU 使用情况。
  2. Topic 指标

    • 每个 Topic 的消息入队和出队率:数据写入和读取的速率。
    • Topic 分区数:每个 Topic 被分割的 Partition 数量。
    • Under Replicated Partitions:未完全复制的 Partition 数量。
  3. Producer 和 Consumer 指标

    • 生产者和消费者吞吐量:发送和接收消息的速率。
    • Record 丢失率:消息丢失的频率(也称为丢包率)。
    • 生产者延迟:生产者发送消息的平均时间。

性能相关指标:

  1. 消息延迟

    • End-to-End 延迟:消息从生产者发送到消费者被消费的总时间。
  2. 队列长度

    • Topic 队列长度:在消费者处理速度慢于生产者时,队列长度可能会增加。

系统资源指标:

  1. 内存和磁盘使用
    • JVM 内存使用率:确保 JVM 内存分配得当,避免长时间的 Full GC。
    • 磁盘空间和磁盘 I/O:跟踪磁盘空间使用量及读写速率。

可靠性与持久性指标:

  1. 消息持久性
    • 复制因子:备份数据的副本数量。
    • Dirty Replica Ratio:未与 Leader Partition 同步的副本比率。

运维相关指标:

  1. 日志指标

    • 日志大小:记录未清理日志大小,与 Topic 日志保留策略相关。
  2. ZooKeeper 指标

    • ZooKeeper 会话状态:Broker 与 ZooKeeper 的连接状态。
    • ZooKeeper 请求延迟:请求 ZooKeeper 服务的延迟时间。

面对这些指标,监控工具如 Prometheus 与 Grafana、JMX 监控、Kafka内部的JMX导出器和 Confluent 控制中心等可以派上用场。使用这些工具,可以从 Kafka 集群收集上述指标并对它们进行可视化展示。持续监控这些指标会让你保持对 Kafka 集群性能和健康状态的认识,从而在出现问题时能够快速反应并采取相应措施。

5.2 如何处理 Kafka 的死锁?

在 Apache Kafka 的使用中,所谓的“死锁”通常指的是一个停滞状态,消费者无法继续消费消息。这不是经典意义上的死锁,因为 Kafka 本身在内部没有用到可能会导致死锁的锁机制。然而,消费者可能会因为多种原因陷入一种状态,看起来像是“死锁”。这通常可能是因为以下一些问题:

消费者不断重试

当消费者在处理消息时遇到错误,而设置了重试机制时,消费者可能会不断地重试同一条消息。如果消息本身就存在问题(比如格式错误,或者其中包含了无法处理的数据),则消费者会陷入一个无限重试的循环。

解决方案

  • 实现合适的错误处理逻辑,比如最大重试次数、记录错误日志和跳过出错的消息。
  • 对无法处理的消息执行死信队列(Dead-Letter Queue)策略。

消费者长时间消费单条消息

如果某个消息特别“重”(即处理时间过长),会导致消费者长时间处于忙碌状态而不能读取新消息。

解决方案

  • 优化消息处理逻辑,减少单条消息的处理时间。
  • 根据消息内容动态分配更多的消费者来平衡负载。

网络问题

如果消费者与 Kafka 服务器之间的网络连接有问题(例如,连接断开或延迟太高),该消费者可能无法及时的从 Kafka 中获取消息。

解决方案

  • 检查并确保网络连接是稳定的。
  • 调整消费者的 session.timeout.ms 和 max.poll.interval.ms 参数来应对网络问题。

Kafka 配置问题

Kafka 或消费者的配置不正确也可能导致消费者不能正常工作。

解决方案

  • 检查消费者和 Kafka 集群的配置(例如,消费者组设置、位移提交等)。

业务逻辑死循环

如果消费者的业务逻辑有错误,如异常处理不当或逻辑错误导致的死循环,也可能导致消费者看起来陷入“死锁”。

解决方案

  • 仔细审查业务逻辑相关的代码,以识别和解决死循环或其他逻辑问题。

解决 Kafka “死锁” 问题通常涉及识别问题的根源,并进行适当的调整或重构。要彻查群体特性和消费模式,确保吞吐量和性能满足业务需求。

5.3 Kafka 中的数据保留策略是如何工作的?

Apache Kafka 在数据保留方面提供灵活的配置,以控制在 Topic 中保留数据的时间长度和大小限制。Kafka 中的消息永远不会被消费者读取而从 Topic 中删除;相反,消息保留由 Kafka 通过配置好的保留策略自动管理。以下是 Kafka 数据保留策略的工作原理:

基于时间的保留

Kafka 默认配置中,消息的保留期限 (log.retention.hours) 通常设置为 7 天,意味着消息将在 7 天后自动删除。这个值可以根据需要进行调整。还可以通过 log.retention.minuteslog.retention.ms 进行具体的分钟和毫秒级的时间配置。

当消息在日志文件(Log segment)中超过这个设置的保留时间后,这个日志段将被标记为过期,并在稍后被清除。

基于大小的保留

除了时间保留,Kafka 也可以配置基于日志大小的保留。可以设置特定大小 (log.retention.bytes),如果任何 Partition 的大小超过这个限制,最早的消息将被删除以便不超过配置的大小。

日志段文件

Kafka 分区中的数据以一系列不可变的日志段文件(Log segment files)的形式存储。每个日志段文件都有特定的大小限制,当达到最大文件大小时,将滚动到新的日志段文件。

清理策略

在 Kafka 中,有两种清理策略:

  1. Delete 清理策略 (cleanup.policy=delete):
    默认策略,使用时间或大小限制(或两者的结合)来删除旧数据。

  2. Compact 清理策略 (cleanup.policy=compact):
    这种策略保证了相同的键值(Key)的消息,最终只保留最新的版本。对于需要保留最新状态而不是完整历史信息的用例(如 KTables)非常有用。

Topic 级别的配置

保留策略可以在 Broker 级别进行全局设置,也可以为每个 Topic 单独配置(覆盖全局设置)。

# 设置特定 Topic 的保留时间为两天
bin/kafka-configs.sh --bootstrap-server localhost:9092 --entity-type topics --entity-name my_topic --alter --add-config retention.ms=172800000

日志清理(Log Cleaner)

Kafka 的后台线程定期运行日志清理过程(Log Cleaner),它设计用来实施日志保留策略,删除过期或不满足保留策略的数据块。

注意事项

  • 高吞吐的 Topic 或含有大量数据的 Topic 可能需要更频繁的清理或更大的保留阈值。
  • 虽然保留的时间和大小可以减轻磁盘空间压力,但要注意这也可能导致数据丢失。
  • 日志压缩和删除策略需要根据消息的特性以及业务需求灵活调整。

通过以上机制,Kafka 使得管理大量数据变得更加可靠和可控,同时为系统提供了所需的弹性和扩展性来处理不同的数据保留需求。

6 Kafka 在数据系统中的应用

6.1 Kafka 如何与流处理系统(如 Apache Flink 或 Spark Streaming)整合?

Kafka 被广泛用作流处理系统(如 Apache Flink 或 Spark Streaming)中的消息队列和存储系统,因为它能够高效地处理和传递大量的实时事件数据。流处理系统能够消费来自Kafka的数据流,执行复杂的分析和转换操作,并将结果输出到Kafka或其他存储系统中。以下是Kafka与Apache Flink和Spark Streaming整合的基本方法:

Kafka 与 Apache Flink 的整合

  1. 添加依赖
    在Flink应用程序的pom.xml中加入 Kafka 连接器的依赖。

  2. 读取 Kafka 数据流
    使用Flink的Kafka消费者API来创建数据源(DataStream),从Kafka中读取数据。

    Properties properties = new Properties();
    properties.setProperty("bootstrap.servers", "localhost:9092");
    properties.setProperty("group.id", "test");
    
    FlinkKafkaConsumer<String> myConsumer = new FlinkKafkaConsumer<>(
      "my-topic", // kafka主题
      new SimpleStringSchema(), // 返回类型
      properties); // 配置信息
    
    DataStream<String> stream = env.addSource(myConsumer);
    
  3. 处理数据流
    对消费到的数据应用Flink的转换操作,如map、filter、window等。

  4. 写回到 Kafka
    使用Flink的Kafka生产者API来将处理后的数据写回到Kafka或其他目的地。

    stream.addSink(new FlinkKafkaProducer<>(
      "localhost:9092",
      "output-topic",
      new SimpleStringSchema()));
    
  5. 启动和管理流作业
    通过Flink集群执行作业,并关注其生命周期。

Kafka 与 Spark Streaming的整合

  1. 添加依赖
    在Spark应用的build.sbtpom.xml文件中加入与Kafka整合的依赖。

  2. 创建 StreamingContext
    创建一个StreamingContext对象,该对象是Spark Streaming作业的入口点。

  3. 创建 DStream
    使用Spark的Kafka工具类创建DStream来消费Kafka中的数据。

    import org.apache.spark.streaming.kafka._
    val kafkaParams = Map("metadata.broker.list" -> "localhost:9092")
    val topics = Set("my-topic")
    
    val stream = KafkaUtils.createDirectStream[
      String, String, StringDecoder, StringDecoder](
        streamingContext, kafkaParams, topics)
    
  4. 处理数据流
    对消费到的数据应用Spark的转换操作,如transform、updateStateByKey等。

  5. 写回到 Kafka
    将处理后的数据发送到Kafka或其他存储系统。

    import org.apache.spark.streaming.kafka._
    
    // 消费kafka消息并通过匿名函数处理
    stream.foreachRDD { rdd =>
      rdd.foreachPartition { partitionOfRecords =>
        // 此处写入Kafka或其他系统的逻辑
      }
    }
    
  6. 启动和管理流作业
    启动Spark Streaming Context,并进行作业的控制和监控。

整合Kafka和流处理系统时,需要注意跨系统的容错性和状态一致性,确保消息的精确一次处理语义。同时,需要优化不同组件之间的设置,比如Kafka消费者的offset管理、水印设置、状态后端以及检查点策略,以实现高吞吐量和有弹性的流处理。

整合Kafka与这些流处理框架能够提高大规模数据处理的吞吐量和效率,使得企业能够构建实时的数据分析和事件驱动型应用。

6.2 Kafka 在微服务架构中通常扮演什么角色?

在微服务架构中,Kafka 通常扮演以下几个重要的角色:

1. 消息队列

Kafka 通常作为一个高吞吐量、可扩展的消息队列系统,允许微服务以异步方式进行通信。它可以解耦生产者和消费者,提高微服务架构的响应能力和整体效率。

2. 事件总线

Kafka 作为事件驱动架构的核心组件,它允许微服务之间通过发送和接收事件(消息)进行交互。事件总线为微服务提供了一种连接和交流的平台,使得服务之间可以基于事件反应而非直接调用,以此来传播系统状态的变化。

3. 数据集成

Kafka 可以用作连接分布式系统中的数据管道,支持从各种源系统(如数据库、文件系统)数据实时集成和处理。它常用于数据复制、数据同步等场景。

4. 实时数据处理

结合 Kafka Streams 或其他流处理工具,如 Apache Spark 或 Apache Flink,Kafka 可用于实现微服务中的实时数据分析和处理,支持复杂的事件处理和流分析。

5. 分布式事务日志

Kafka 能作为可靠的分布式事务日志,记录系统中的变更事件,用于事件溯源(Event Sourcing)和构建审计日志等功能。这在保证数据一致性以及后期分析业务流程上至关重要。

6. 分布式数据存储

在一些案例中,Kafka 也被用作轻量级的分布式数据存储系统,支持存储键值对数据,特别是当与 Kafka 的日志压缩特性一起使用时,在需要持久化大量不变数据时非常有用。

7. 解耦和扩展性

通过使用 Kafka,微服务之间的直接依赖得以最小化,有助于提高整个系统的可扩展性、可靠性和容错能力。

8. 回压管理

Kafka 可以作为缓冲区来平衡生产数据的服务和消费数据的服务之间的速度差异,有效管理背压(Backpressure)。

9. CQRS 支持

Kafka 支持命令和查询责任分离(CQRS)模式,使用 Kafka 对不同的读写工作流进行建模,优化系统性能和灵活性。

Kafka 在微服务架构中的应用为分布式系统的构建提供了强大的支持。它的设计符合微服务架构的最佳实践,包括高可用性、弹性、敏捷性和分布式自治。然而,正确使用 Kafka 并实现这些架构优势需要在设计时进行深思熟虑,以确保与整体架构和业务需求相符。

6.3 在实时数据管道中,Kafka 与其他消息系统(如 RabbitMQ、ActiveMQ)的比较。

Apache Kafka、RabbitMQ 和 ActiveMQ 是目前市场上最流行的消息传递系统,并且经常被用来构建实时数据管道。尽管它们在实现消息队列(message queuing)方面有共通之处,但三者在设计理念、功能特性和使用场景上存在明显差别。

以下是它们的比较:

Apache Kafka

  • 设计理念:Kafka 设计用于处理高吞吐量的数据流,支持发布-订阅(publish-subscribe)和消息队列两种模式。它非常适合需要大量数据处理和实时分析的场景。
  • 数据模型:Kafka 在内部将消息视作日志流,并存储在 Topic 的分区中,使其能高效地处理数据的顺序读写。
  • 持久性与可扩展性:Kafka 消息被设计为持久化到磁盘,并分布在多个服务器上以实现可扩展性和容错性。
  • 高吞吐量:Kafka 的高性能主要得益于其日志存储结构,可同时服务于成千上万的客户端,而不会有明显性能下降。
  • 可扩展:Kafka 支持集群模式,易于扩展。通过添加更多的服务器,可以无缝地扩展系统的能力。
  • 流处理:Kafka Streams 和 KSQL 提供流处理能力,可以构建实时的流处理应用。

RabbitMQ

  • 设计理念:RabbitMQ 是一个轻量级、易于部署的消息代理,它支持多种消息协议,如 AMQP、STOMP 等,并且更侧重于消息的可靠传递。
  • 数据模型:RabbitMQ 提供致力于消息传输保证和多种交换类型的灵活路由到队列中。
  • 可靠性:RabbitMQ 提供消息持久性、交付确认、消息回溯等特性,确保消息不丢失。
  • 支持的模式:除了发布-订阅模式之外,RabbitMQ 还支持请求-响应(Request-reply)和路由到多个队列等复杂交换模式。
  • 易于使用:RabbitMQ 有更容易使用的管理界面,并支持多种编程语言客户端。

ActiveMQ

  • 设计理念:ActiveMQ 是另一个支持多种消息协议的成熟消息代理,它很适合传统的企业应用,支持 JMS(Java Message Service)标准。
  • 可靠性:ActiveMQ 为消息提供了强大的持久性、交易支持和高级别的集群配置。
  • 多协议支持:ActiveMQ 支持多种协议,包括 OpenWire、STOMP、AMQP、MQTT 等。
  • 使用场景:它适用于需要支持复杂路由、集群和高可用性的企业消息服务。

总结

总的来说,如果你的系统需求是大数据处理和实时流分析,Kafka 是更好的选择;如果你关注的是消息可靠性、多种消息协议支持或需要良好的管理界面,RabbitMQ 可能更适合;而 ActiveMQ 则在需要 JMS 完整支持和更多的高级特性时成为了首选。

选择合适的消息系统需要考虑不同的技术需求和业务目标,如消息吞吐量、数据持久性、系统扩展性和开发资源。在做决策时,要仔细权衡每种队列管理系统的优势和局限,并充分理解其在不同场景下表现的差异。

  • 29
    点赞
  • 14
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 1
    评论
Kafka 面试题及答案可以包括以下内容: 1. Kafka 是什么?它的主要特点是什么? Kafka 是一个分布式流处理平台,主要用于处理实时数据流。它的主要特点包括高吞吐量、可扩展性、持久性、容错性和可靠性。 2. Kafka 的消息传递模型是什么? Kafka 的消息传递模型是基于发布-订阅模式的,生产者将消息发布到一个或多个主题(topic),而消费者则订阅这些主题并接收消息。 3. Kafka 的核心组件有哪些? Kafka 的核心组件包括生产者(Producer)、消费者(Consumer)、主题(Topic)、分区(Partition)和代理(Broker)。 4. Kafka 的消息是如何保证可靠性传递的? Kafka 通过将消息持久化到磁盘上的日志文件来保证可靠性传递。生产者将消息写入日志文件后即可返回成功,而消费者可以根据自己的需求灵活地消费消息。 5. Kafka 的数据复制机制是怎样的? Kafka 使用副本机制来实现数据的冗余备份。每个分区都有一个主副本和多个副本,主副本负责处理读写请求,而其他副本则用于备份和容错。 6. Kafka 的消息顺序性如何保证? Kafka 保证每个分区内的消息顺序性,即同一个分区内的消息按照发送的顺序进行存储和消费。不同分区之间的消息顺序性不能保证。 7. Kafka 的消费者如何处理消息的偏移量? Kafka 的消费者可以手动管理消息的偏移量,也可以使用消费者组(Consumer Group)来自动管理偏移量。消费者组可以协同工作,确保每个消息只被消费一次。 这些是一些常见的 Kafka 面试题及答案,希望对你有帮助!
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

golove666

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值