kafka的简单使用

Kafka的简单使用

1.kafka常用命令


Linux

//启动zookeeper
./zookeeper-server-start.sh ../config/zookeeper.properties

//启动kafka
./kafka-server-start.sh ../config/server.properties

//创建一个1分区的topic
./kafka-topics.sh --create --bootstrap-server 127.0.0.1:9093 --replication-factor 1 --partitions 1 --topic test

//查看当前主题中的所有topic
./kafka-topics.sh --list --bootstrap-server 127.0.0.1:9093

//查看指定的topic
./kafka-topics.sh --describe --bootstrap-server 127.0.0.1:9092 --topic test

//生产消息
./kafka-console-producer.sh --broker-list 127.0.0.1:9093 --topic test

//消费消息

//⽅式⼀:从当前主题中的最后⼀条消息的offset(偏移量位置)+1开始消费
./kafka-console-consumer.sh --bootstrap-server 127.0.0.1:9093 --topic test
//⽅式⼆:从当前主题中的第⼀条消息开始消费
./kafka-console-consumer.sh --bootstrap-server 127.0.0.1:9093 --from-beginning --topic test

windows

//启动zookeeper
.\bin\zkServer.cmd

//启动kafka
.\bin\windows\kafka-server-start.bat .\config\server.properties

//创建一个1分区的topic
.\bin\windows\kafka-topics.bat --create --zookeeper 127.0.0.1:2183 --replication-factor 1 --partitions 1 --topic test

//查看当前主题中的所有topic
.\bin\windows\kafka-topics.bat --list --bootstrap-server 127.0.0.1:9093

//查看指定的topic
.\bin\windows\kafka-topics.bat --describe --zookeeper 127.0.0.1:9093 --topic test

//生产消息
.\bin\windows\kafka-console-producer.bat --broker-list 127.0.0.1:9093 --topic test

//消费消息
.\bin\windows\kafka-console-consumer.bat --bootstrap-server 127.0.0.1:9093 --topic test --from-beginning


2. go语言的kafka API

2.1.sarama

Go语言中连接kafka使用第三方库: github.com/Shopify/sarama。

2.2下载及安装

 go get github.com/Shopify/sarama

注意事项: sarama v1.20之后的版本加入了zstd压缩算法,需要用到cgo,在Windows平台编译时会提示类似如下错误: github.com/DataDog/zstd exec: “gcc”:executable file not found in %PATH% 所以在Windows平台请使用v1.19版本的sarama。(如果不会版本控制请查看博客里面的go module章节)

参考视频:
https://www.bilibili.com/video/BV1pE41117MG?p=12

2.3使用

连接kafka发送消息

package main

import (
    "fmt"

    "github.com/Shopify/sarama"
)

// 基于sarama第三方库开发的kafka client

func main() {
    config := sarama.NewConfig()
    config.Producer.RequiredAcks = sarama.WaitForAll          // 发送完数据需要leader和follow都确认
    config.Producer.Partitioner = sarama.NewRandomPartitioner // 新选出一个partition
    config.Producer.Return.Successes = true                   // 成功交付的消息将在success channel返回

    // 构造一个消息
    msg := &sarama.ProducerMessage{}
    msg.Topic = "web_log"
    msg.Value = sarama.StringEncoder("this is a test log")
    // 连接kafka
    client, err := sarama.NewSyncProducer([]string{"127.0.0.1:9092"}, config)
    if err != nil {
        fmt.Println("producer closed, err:", err)
        return
    }
    defer client.Close()
    // 发送消息
    pid, offset, err := client.SendMessage(msg)
    if err != nil {
        fmt.Println("send msg failed, err:", err)
        return
    }
    fmt.Printf("pid:%v offset:%v\n", pid, offset)
}

连接kafka消费消息

package main

import (
    "fmt"

    "github.com/Shopify/sarama"
)

// kafka consumer

func main() {
    consumer, err := sarama.NewConsumer([]string{"127.0.0.1:9092"}, nil)
    if err != nil {
        fmt.Printf("fail to start consumer, err:%v\n", err)
        return
    }
    partitionList, err := consumer.Partitions("web_log") // 根据topic取到所有的分区
    if err != nil {
        fmt.Printf("fail to get list of partition:err%v\n", err)
        return
    }
    fmt.Println(partitionList)
    for partition := range partitionList { // 遍历所有的分区
        // 针对每个分区创建一个对应的分区消费者
        pc, err := consumer.ConsumePartition("web_log", int32(partition), sarama.OffsetNewest)
        if err != nil {
            fmt.Printf("failed to start consumer for partition %d,err:%v\n", partition, err)
            return
        }
        defer pc.AsyncClose()
        // 异步从每个分区消费信息
        go func(sarama.PartitionConsumer) {
            for msg := range pc.Messages() {
                fmt.Printf("Partition:%d Offset:%d Key:%v Value:%v", msg.Partition, msg.Offset, msg.Key, msg.Value)
            }
        }(pc)
    }
}

kafka知识点目录

1.Linux环境部署kafka
2.Win10环境部署kafka
3.docker部署kafka
4.kafka的简单使用
5.kafka消息的细节
6.kafka主题和分区的概念
7.kafka集群操作
8.kafka生产者实现细节
9.kafka消费者实现细节
10.kafka集群中的controller、rebalance、HW
11.kafka中的优化问题
12.Kafka-eagle监控平台
13.kafka错误汇总

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: Spring Boot集成Kafka可以使用Spring Kafka库来实现。以下是步骤: 1. 添加Spring Kafka依赖 在pom.xml文件中添加以下依赖: ```xml <dependency> <groupId>org.springframework.kafka</groupId> <artifactId>spring-kafka</artifactId> <version>2.3.7.RELEASE</version> </dependency> ``` 2. 配置Kafka 在application.properties文件中添加以下配置: ```properties spring.kafka.bootstrap-servers=<kafka服务器地址> spring.kafka.consumer.group-id=<消费者组ID> ``` 3. 创建Kafka生产者 使用KafkaTemplate类创建生产者。以下是一个示例: ```java @Service public class MyKafkaProducer { @Autowired private KafkaTemplate<String, String> kafkaTemplate; public void sendMessage(String topic, String message) { kafkaTemplate.send(topic, message); } } ``` 4. 创建Kafka消费者 使用@KafkaListener注解创建消费者。以下是一个示例: ```java @Service public class MyKafkaConsumer { @KafkaListener(topics = "<要消费的主题>") public void consume(String message) { // 处理消息 } } ``` 5. 发送和接收消息 使用上面创建的Kafka生产者发送消息,使用上面创建的Kafka消费者接收消息。 以上就是Spring Boot集成Kafka的基本步骤。需要注意的是,Kafka的具体使用方式和配置可能因版本而异,需要根据实际情况进行调整。 ### 回答2: Spring Boot 是一个用于简化 Spring 应用程序开发的框架,它提供了很多便捷的功能和配置,使得我们可以更容易地集成和使用 Kafka 。 首先,我们需要在 pom.xml 文件中添加 Kafka 的依赖: ```xml <dependency> <groupId>org.springframework.kafka</groupId> <artifactId>spring-kafka</artifactId> </dependency> ``` 然后,我们需要在 application.properties(或 application.yml)文件中配置 Kafka 的连接地址和其他相关属性: ```properties spring.kafka.bootstrap-servers=your-kafka-server-address spring.kafka.consumer.group-id=your-consumer-group-id spring.kafka.consumer.auto-offset-reset=earliest spring.kafka.consumer.key-deserializer=org.apache.kafka.common.serialization.StringDeserializer spring.kafka.consumer.value-deserializer=org.apache.kafka.common.serialization.StringDeserializer spring.kafka.producer.key-serializer=org.apache.kafka.common.serialization.StringSerializer spring.kafka.producer.value-serializer=org.apache.kafka.common.serialization.StringSerializer ``` 在代码中,我们可以使用 KafkaTemplate 类来发送消息到 Kafka 或接收 Kafka 的消息。我们可以通过注入 KafkaTemplate 对象来使用它。 例如,我们可以定义一个 Producer 类来发送消息: ```java @Service public class KafkaProducer { @Autowired private KafkaTemplate<String, String> kafkaTemplate; public void sendMessage(String topic, String message) { kafkaTemplate.send(topic, message); } } ``` 我们还可以定义一个 Consumer 类来接收消息: ```java @Service public class KafkaConsumer { @KafkaListener(topics = "your-topic-name") public void receiveMessage(String message) { System.out.println("Received message: " + message); } } ``` 在这个例子中,我们通过使用 @KafkaListener 注解来指定要监听的主题,并在 receiveMessage 方法中处理接收到的消息。 通过以上步骤,我们就可以在 Spring Boot 中集成和使用 Kafka 了。我们可以使用 KafkaTemplate 发送消息,使用 @KafkaListener 注解来监听和处理消息。同时,我们还可以根据自己的需求配置更多的 Kafka 相关属性,例如设置消费者组、反序列化器等。 总之,Spring Boot 集成 Kafka 的过程主要步骤包括添加依赖、配置 Kafka 连接、编写 Producer 和 Consumer 类,通过 KafkaTemplate 发送消息,使用 @KafkaListener 注解监听并处理消息。以上就是关于如何在 Spring Boot 中集成 Kafka 的简要介绍。 ### 回答3: Spring Boot提供了对Kafka的集成支持,使得使用Kafka进行消息传递变得简单和高效。下面是使用Spring Boot集成Kafka的步骤: 1. 配置Kafka依赖:在pom.xml文件中添加Kafka的依赖项。 ``` <dependency> <groupId>org.springframework.kafka</groupId> <artifactId>spring-kafka</artifactId> </dependency> ``` 2. 配置Kafka相关属性:在application.properties文件中配置Kafka的相关属性,包括Kafka服务器地址、端口号等。 ``` spring.kafka.bootstrap-servers=localhost:9092 ``` 3. 创建Kafka生产者:使用Spring Kafka提供的KafkaTemplate类来创建一个Kafka生产者,用于发送消息到Kafka。 ```java @Autowired private KafkaTemplate<String, String> kafkaTemplate; public void sendMessage(String topic, String message) { kafkaTemplate.send(topic, message); } ``` 4. 创建Kafka消费者:使用@KafkaListener注解来创建Kafka消费者,监听指定的主题,并处理接收到的消息。 ```java @KafkaListener(topics = "myTopic") public void receiveMessage(String message) { System.out.println("Received message: " + message); // 进行消息处理 } ``` 5. 启动Kafka消费者:在Spring Boot应用程序的入口类上添加@EnableKafka注解,以启用Kafka消费者。 ```java @SpringBootApplication @EnableKafka public class SpringBootKafkaApplication { public static void main(String[] args) { SpringApplication.run(SpringBootKafkaApplication.class, args); } } ``` 通过以上步骤,我们就可以在Spring Boot中集成Kafka,并使用Kafka进行消息传递了。可以根据实际需求,进行消息的发送和接收处理。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值