Springboot整合kafka基本使用

一. 项目搭建

同样的,我们需要创建一个基于Maven的项目,并且整合非常简单。我们只需要使用以下的.

 <!--kafka依赖-->
<dependency>
    <groupId>org.springframework.kafka</groupId>
    <artifactId>spring-kafka</artifactId>
</dependency>

模块中的完整的pom.xml文件:

<?xml version="1.0" encoding="UTF-8"?>
<project xmlns="http://maven.apache.org/POM/4.0.0"
         xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
         xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsd">
    <modelVersion>4.0.0</modelVersion>

    <groupId>org.example</groupId>
    <artifactId>springboot-kafka-all</artifactId>
    <version>1.0-SNAPSHOT</version>

    <properties>
        <java.version>1.8</java.version>
    </properties>

    <parent>
        <groupId>org.springframework.boot</groupId>
        <artifactId>spring-boot-starter-parent</artifactId>
        <version>2.1.3.RELEASE</version>
    </parent>

    <dependencies>
        <!--web-->
        <dependency>
            <groupId>org.springframework.boot</groupId>
            <artifactId>spring-boot-starter-web</artifactId>
        </dependency>
        <!--test-->
        <dependency>
            <groupId>org.springframework.boot</groupId>
            <artifactId>spring-boot-starter-test</artifactId>
        </dependency>
        <!-- kafka的依赖-->
        <dependency>
            <groupId>org.springframework.kafka</groupId>
            <artifactId>spring-kafka</artifactId>
        </dependency>
        <!--Hutool依赖-->
        <dependency>
            <groupId>cn.hutool</groupId>
            <artifactId>hutool-all</artifactId>
            <version>5.8.4</version>
        </dependency>
        <!--fast-json格式-->
        <dependency>
            <groupId>com.alibaba</groupId>
            <artifactId>fastjson</artifactId>
            <version>1.2.58</version>
        </dependency>

        <dependency>
            <groupId> org.slf4j </groupId>
            <artifactId> slf4j-api </artifactId>
            <version> 1.6.4 </version>
        </dependency>
        <dependency>
            <groupId>org.slf4j</groupId>
            <artifactId>slf4j-simple</artifactId>
            <version>1.7.25</version>
            <scope>compile</scope>
        </dependency>
 <!-- set get-->
        <dependency>
            <groupId>org.projectlombok</groupId>
            <artifactId>lombok</artifactId>
        </dependency>
    </dependencies>

    <build>
        <plugins>
            <plugin>
                <groupId>org.springframework.boot</groupId>
                <artifactId>spring-boot-maven-plugin</artifactId>
                <version>2.1.3.RELEASE</version>
            </plugin>
        </plugins>
    </build>

</project>

配置文件中的也很简单 application.yml。指定项目启动的端口号以及kafka的端口路径

server:
  port: 8081

spring:
  kafka:
    producer:
      bootstrap-servers: 127.0.0.1:9092

然后新建一个启动类,在启动之前别忘了开启Kafka集群,看下控制台是否成功链接了Kafka,

二. 基本使用如下

先从一个简单的例子,来快速体验一下Kafka,新建HelloController.java接收信息和发送信息

@Slf4j
@RestController
public class HelloController {

    private static final String topic = "test";

    @Autowired
    private KafkaTemplate<Object, Object> kafkaTemplate;

    // 接收消息
    @KafkaListener(id = "helloGroup", topics = topic)
    public void listen(String msg) {
        log.info("hello receive value: {}" , msg);
        // hello receive value: hello kafka
    }

    @GetMapping("/hello")
    public String hello() {
        // 发送消息
        kafkaTemplate.send(topic, "hello kafka");
        return "hello";
    }
}

我们通过KafkaTemplate进行消息的发送, 通过@KafkaListener进行消息的消费,我们可以指定消费者ID以及监听的topic,请求localhost:8081/hello观察控制台的变化。请求后,发现消息发送和接收的非常快,我们也可以观察UI后台的消息详情,同步对比

topic创建

之前我们的topic是在UI后台创建的,那么在SpringBoot中如何创建呢? 下面我们试着发送一个不存在的topic

 // 当topic不存在时 会默认创建一个topic
    // num.partitions = 1 #默认Topic分区数
    // num.replica.fetchers = 1 #默认副本数
    @GetMapping("/hello1")
    public String hello1() {
        // 发送消息
        kafkaTemplate.send("hello1", "hello1");
        return "hello1";
    }

    // 接收消息
    @KafkaListener(id = "hello1Group", topics = "hello1")
    public void listen1(String msg) {
        log.info("hello1 receive value: {}" , msg);
        // hello1 receive value: hello1
    }

在请求之后,当我们观察控制台和管理后台时,我们发现没有出现任何错误,并且系统还自动为我们创建了一个话题。在自动创建话题过程中,默认使用了一组参数。

  num.partitions = 1 #默认Topic分区数
  num.replica.fetchers = 1 #默认副本数

如果我想手动创建的话,我们可以通过NewTopic来手动创建如下:

@Configuration
public class KafkaConfig {
    @Bean
    public KafkaAdmin admin(KafkaProperties properties){
        KafkaAdmin admin = new KafkaAdmin(properties.buildAdminProperties());
        // 默认False,在Broker不可用时,如果你觉得Broker不可用影响正常业务需要显示的将这个值设置为True
        admin.setFatalIfBrokerNotAvailable(true);
        // setAutoCreate(false) : 默认值为True,也就是Kafka实例化后会自动创建已经实例化的NewTopic对象
        // initialize():当setAutoCreate为false时,需要我们程序显示的调用admin的initialize()方法来初始化NewTopic对象
        return admin;
    }

    /**
     * 创建指定参数的 topic
     * @return
     */
    @Bean
    public NewTopic topic() {
        return new NewTopic("hello2", 0, (short) 0);
    }
}

创建之后我们需要更新他的话直接可以按照下面的方式

 /**
     * 更新 topic
     * @return
     */
    @Bean
    public NewTopic topicUpdate() {
        return new NewTopic("hello2", 1, (short) 1);
    }

注意这里的参数只能+不能-

这种方式太简单了,如果我想在代码逻辑中来创建呢?我们可以通过AdminClient来手动创建

/**
 * AdminClient 创建
 */
@Autowired
private KafkaProperties properties;

/**
 * 创建主题
 * @param topicName 主题名称
 * @return 创建的主题名称
 */
@GetMapping("/create/{topicName}")
public String createTopic(@PathVariable String topicName) {
    AdminClient client = AdminClient.create(properties.buildAdminProperties());

    // 判断AdminClient是否创建成功
    if (client != null) {
        try {
            Collection<NewTopic> newTopics = new ArrayList<>(1);
            newTopics.add(new NewTopic(topicName, 1, (short) 1));
            client.createTopics(newTopics);
        } catch (Throwable e) {
            e.printStackTrace();
        } finally {
            client.close();
        }
    }
    return topicName;
}

观察下管理后台,发现topic都创建成功了

三. 获取消息发送的结果

有时候我们发送消息不知道是不是发成功了,需要有一个结果通知。有两种方式,一种是同步一种是异步

1. 同步获取结果

/**
     * 获取通知结果
     * @return
     */
    @GetMapping("/hello2")
    public String hello2() {
        // 同步获取结果
        ListenableFuture<SendResult<Object,Object>> future = kafkaTemplate.send("hello2","hello2");
        try {
            SendResult<Object,Object> result = future.get();
            log.info("success >>> {}", result.getRecordMetadata().topic()); // success >>> hello2
        }catch (Throwable e){
            e.printStackTrace();
        }

        return "hello2";
    }

2. 异步获取

/**
 * 获取通知结果
 * @return
 */
@GetMapping("/hello2")
public String hello2() {
    // 发送消息 - 异步获取通知结果
    kafkaTemplate.send("hello2", "async hello2").addCallback(new ListenableFutureCallback<SendResult<Object, Object>>() {
        /**
         * 当异步消息发送失败时,会执行该方法
         * @param throwable 异常信息
         */
        @Override
        public void onFailure(Throwable throwable) {
            log.error("fail >>>>{}", throwable.getMessage());
        }

        /**
         * 当异步消息发送成功时,会执行该方法
         * @param objectObjectSendResult 发送结果
         */
        @Override
        public void onSuccess(SendResult<Object, Object> objectObjectSendResult) {
            log.info("async success >>>  {}", objectObjectSendResult.getRecordMetadata().topic()); // async success >>> hello2
        }
    });

    return "hello2";
}

四. Kafka事务

同样的,消息也会存在事务,如果第一条消息发送成功,再发第二条消息的时候出现异常,那么就会抛出异常并回滚第一条消息,下面通过一个简单的例子体会一下

/**
 * 这是一个使用 Spring Cloud 的 @KafkaListener 注解接收消息的示例,
 * 定义了一个名为 hello3 的方法,该方法在执行过程中,会发送两条消息到指定的主题中,
 * 然后接收该主题的消息,并打印出来。
 */
@GetMapping("/hello3")
public String hello3() {
    kafkaTemplate.executeInTransaction(t -> {
        t.send("hello3", "msg1");
        if (true) {
            throw new RuntimeException("failed");
        }
        t.send("hello3", "msg2");
        return true;
    });

    return "hello3";
}

/**
 * 这是一个使用 Spring Cloud 的 @KafkaListener 注解接收消息的示例,
 * 定义了一个名为 listen3 的方法,该方法在执行过程中,会接收指定主题的消息,
 * 并打印出来。
 */
@KafkaListener(id = "hello3Group", topics = "hello3")
public void listen3(String msg) {
    log.info("hello3 receive value: {}", msg);
}

默认情况下,Spring-kafka自动生成的KafkaTemplate实例,是不具有事务消息发送能力的。我们需要添加transaction-id-prefix来激活它

spring:
  kafka:
    producer:
      bootstrap-servers: 127.0.0.1:9092
      transaction-id-prefix: kafka_.

启动之后,观察控制台的变化 ,除此之外,还可以使用注解的方式@Transactional来开启事务

/**
 * 这是一个使用 Spring Cloud 的 @Transactional 注解进行事务控制的示例,
 * 定义了一个名为 hello4 的方法,该方法在执行过程中,会发送两条消息到指定的主题中,
 * 然后如果抛出了一个 RuntimeException,则会进行事务回滚,否则继续执行。
 */
@Transactional(rollbackFor = RuntimeException.class)
@GetMapping("/hello4")
public String hello4() {
    kafkaTemplate.send("hello3", "msg1");
    if (true) {
        throw new RuntimeException("failed");
    }
    kafkaTemplate.send("hello3", "msg2");
    return "hello4";
}

以上就是简单的使用kafka的集成,可以学习到对他的基本认识。 

面试题:

1. Kafka是什么?它的主要特性是什么?

Kafka是一个分布式流处理平台,可以处理和存储大规模的流式数据。它具有以下主要特性:
- 可靠性:Kafka以分布式和冗余的方式存储数据,可以提供高可靠性的数据传输和存储。
- 可扩展性:Kafka可以水平扩展,适应各种数据规模和负载。
- 高性能:Kafka通过批量处理和零拷贝技术来实现高性能的数据传输。
- 消息顺序保证:Kafka会保证相同分区内的消息按照发送顺序进行处理。
- 多样的使用场景:Kafka可以用于日志收集、流式处理、消息队列、事件源等多个应用场景。

2. Kafka的消息传输机制是怎样的?

Kafka采用发布-订阅模式的消息传输机制。生产者将消息发送到一个或多个主题(topic)中,消费者通过订阅这些主题来接收消息。主题被分成多个分区(partition),每个分区中的消息有一个唯一的偏移量(offset),用于标识消息在分区中的位置。消费者可以以线性的方式读取和处理消息,每个消费者只能消费特定分区中的消息。

3. Kafka的数据持久化机制是怎样的?

Kafka使用日志(log)的方式来持久化数据。每个分区都有一个对应的日志文件,通过追加的方式将消息写入到日志文件中。消息在写入时会被持久化到磁盘,在内存中存在一定时间后,可以被清理。消费者读取消息时,可以根据偏移量来定位消息的位置。

4. Kafka如何保证数据的可靠性?

Kafka通过复制机制来保证数据的可靠性。每个分区可以有多个副本(replica),每个副本都保存了完整的分区数据。当一个副本宕机时,其他副本可以接替其工作,保证数据的连续性。同时,Kafka还可以配置多个副本之间的同步机制,以保证数据在不同副本之间的一致性。

5. Kafka的数据消费是如何实现的?

消费者通过订阅主题来接收消息。Kafka使用拉取模式(pull)来实现消费者的消息读取。消费者通过请求服务器获取分区中的消息,然后将这些消息进行处理。消费者可以手动控制消息的偏移量,以实现精确的消息读取和处理。

6. Kafka的容错机制是怎样的?

Kafka使用分布式的复制机制来实现容错。每个主题的分区可以有多个副本,当一个副本发生故障时,其他副本可以继续提供服务。Kafka还使用持久化的方式来存储消息,即使服务器发生故障,数据也不会丢失。此外,Kafka还具有监控和警报机制,可以及时发现和处理故障情况。

7. Kafka的并发控制是如何实现的?

Kafka使用分区来实现消息的并发处理。每个主题被分成多个分区,每个分区只能由一个消费者进行处理。这样可以保证相同分区内的消息按照发送顺序进行处理,同时能够实现消息的并发处理。

8. Kafka的优缺点是什么?

Kafka的优点包括高吞吐量、高可靠性、高扩展性、低延迟、灵活的数据模型和丰富的生态系统。它可以用于处理和存储大规模的流式数据,并支持多种使用场景。

Kafka的缺点包括相对复杂的部署和配置、对于小规模数据的应用可能过于庞大、消息一旦被消费则无法再次获取等。

9. Kafka的主要应用场景有哪些?

Kafka可以应用于日志收集、流式处理、消息队列、事件源等多个场景。在日志收集中,Kafka可以将日志数据进行实时处理和存储。在流式处理中,Kafka可以作为数据源和数据目的地,实现实时的数据处理和分析。在消息队列中,Kafka可以用于异步的消息传递和处理。在事件源中,Kafka可以作为事件的发布和订阅平台,实现实时的事件处理和分发。

10. Kafka与其他消息队列系统的比较有哪些?

Kafka与其他消息队列系统相比,主要有以下特点:
- 高吞吐量:Kafka通过批量处理和零拷贝技术实现了高吞吐量的数据传输和存储。
- 高可靠性:Kafka采用分布式复制机制和持久化存储,可以保证数据的高可靠性。
- 分布式和可扩展:Kafka可以水平扩展,适应各种数据规模和负载。
- 支持多种使用场景:Kafka可以应用于日志收集、流式处理、消息队列、事件源等多个场景。
- 较复杂的部署和配置:相对于其他消息队列系统,Kafka的部署和配置可能会较为复杂。

  • 11
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

全能技术师

相关资源在博客首页资源下获取

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值