kafka基本使用及结合Java使用_java kafka

一个主题中的消息量是非常大的,因此可以通过分区的设置,来分布式(集群)存储这些消息。比如一个topic创建了 3 个分区。那么topic中的消息就会分别存放在这三个分区中。

为一个主题创建多个分区
./kafka-topics.sh --create --topic test1 --bootstrap-server 服务器IP地址:9093 --replication-factor 1 --partitions 2

可以通过这样的命令查看topic的分区信息

./kafka-topics.sh --bootstrap-server 服务器IP地址:9093 --topic test1 --describe

test的结果
##结果
Topic: test1    TopicId: UBg9xwGhSKyaeWV-RdiNcQ PartitionCount: 2       ReplicationFactor: 1    Configs:
        Topic: test1    Partition: 0    Leader: 2       Replicas: 2     Isr: 2
        Topic: test1    Partition: 1    Leader: 2       Replicas: 2     Isr: 2

通过查看topic信息,其中的关键数据:

  • replicas:当前副本存在的broker节点
  • leader:副本里的概念
    • 每个partition都有一个broker作为leader。
    • 消息发送方要把消息发给哪个broker?就看副本的leader是在哪个broker上面。副本里的leader专⻔用来接收消息。
    • 接收到消息,其他follower通过poll的方式来同步数据。

isr: 可以同步的broker节点和已同步的broker节点,存放在isr集合中。

分区的作用:
  • 可以分布式存储
  • 可以并行写
  • producer向3个分区写入消息,consumer从3个分区拉取消息。分区内的消息通过offset保证连续,但分区之间的消息顺序无法保证。
kafka集群创建topic中的分区和副本选择基本概念

7个broker组成的集群, 创建一个topic, 设置7个分区是最优选择, 如果选择5个分区, 也是可以的, 但是两台机器没有起到作用; 如果选择10个分区, 也是可以的, 但是会有三台机器会做双份工作, 有两个leader

设置7个副本是最优选择, 如果选择5个副本, 也是可以的, 但是又两台机器没有起到备份作用; 如果选择10个副本呢? 是不可以的, 创建逻辑上就存在问题

默认情况下,kafka 会使用三种方式来自动创建主题,下面是三种情况:

  1. 当一个生产者开始往主题写入消息时
  2. 当一个消费者开始从主题读取消息时
  3. 当任意一个客户端向主题发送元数据请求时

五、Kafka集群及副本的概念

1.搭建kafka集群, 2个broker

broker:已发布的消息保存在一组服务器中,称之为Kafka集群。集群中的每一个服务器都是一个代理(Broker). 消费者可以订阅一个或多个主题(topic),并从Broker拉数据,从而消费这些已发布的消息。

使用如下命令来启动 2 台服务器

注意: 此kafka的安装依赖于zookeeper的安装,如果之前有安装过zookeeper, 不要重复使用, 重新创建新的zookeeper

前面安装过的zookeeper和kafka两个容器, 请删除掉, 重新创建zookeeper

安装zk

docker run --name some-zookeeper -dit -p 2181:2181 zookeeper

确保安装完成集群后, 至少还有800mb的剩余空间

注意: 两个kafka一个占用9092, 一个占用9093, 确保云服务防火墙中的两个端口都是放开的, 先开放防火墙

#节点1
docker run -d --name=kafka2 \
 -p 9092:9092 \
 -e ALLOW\_PLAINTEXT\_LISTENER=yes \
 -e KAFKA\_CFG\_ZOOKEEPER\_CONNECT=服务器IP地址:2181 \
 -e KAFKA\_BROKER\_ID=2 \
 -e KAFKA\_NODE\_ID=2   \
 -e KAFKA\_ENABLE\_KRAFT=false \
 -e KAFKA\_HEAP\_OPTS="-Xmx180m -Xms180m" \
 -e KAFKA\_ADVERTISED\_LISTENERS=PLAINTEXT://服务器IP地址:9092 \
 -e KAFKA\_LISTENERS=PLAINTEXT://0.0.0.0:9092  \
 bitnami/kafka

 # 节点2
 docker run -d --name=kafka3 \
 -p 9093:9092 \
 -e ALLOW\_PLAINTEXT\_LISTENER=yes \
 -e KAFKA\_CFG\_ZOOKEEPER\_CONNECT=服务器IP地址:2181 \
 -e KAFKA\_BROKER\_ID=3 \
 -e KAFKA\_NODE\_ID=3   \
 -e KAFKA\_ENABLE\_KRAFT=false \
  -e KAFKA\_HEAP\_OPTS="-Xmx180m -Xms180m" \
 -e KAFKA\_ADVERTISED\_LISTENERS=PLAINTEXT://服务器IP地址:9093 \
 -e KAFKA\_LISTENERS=PLAINTEXT://0.0.0.0:9092  \
 bitnami/kafka

参数释义:

  • e KAFKA_BROKER_ID=0 在kafka集群中,每个kafka都有一个BROKER_ID来区分自己
  • e KAFKA_ZOOKEEPER_CONNECT=服务器IP地址:2181 kafka 配置zookeeper
  • e KAFKA_ADVERTISED_LISTENERS=PLAINTEXT://服务器IP地址:9092 把kafka的地址端口注册给zookeeper
  • e KAFKA_LISTENERS=PLAINTEXT://0.0.0.0:9092 配置kafka的监听端口 是容器内部kafka占用的端口
  • e KAFKA_HEAP_OPTS=“-Xmx180m -Xms180m” 设置kafka占用的内存

2.副本的概念

副本是对分区的备份。在集群中,不同的副本会被部署在不同的broker上。下面例子:创建 1个主题, 2 个分区、 2 个副本。

进入到kafka2容器中, 进入到bin目录下, 执行如下命令

./kafka-topics.sh --create --topic my-replicated-topic --bootstrap-server 服务器IP地址:9092 --replication-factor 2 --partitions 2

./kafka-topics.sh --bootstrap-server 服务器IP地址:9092 --topic my-replicated-topic --describe

Topic: my-replicated-topic TopicId: eJ0M58k5RR6MwImWeHBebQ PartitionCount: 2 ReplicationFactor: 2 Configs:
Topic: my-replicated-topic Partition: 0 Leader: 3 Replicas: 3,2 Isr: 3,2
Topic: my-replicated-topic Partition: 1 Leader: 2 Replicas: 2,3 Isr: 2,3

通过查看topic信息,其中的关键数据:

  • replicas:当前副本存在的broker节点
  • leader:副本里的概念
    • 每个partition都有一个broker作为leader。
    • 消息发送方要把消息发给哪个broker?就看副本的leader是在哪个broker上面。副本里的leader专⻔用来接收消息。
    • 接收到消息,其他follower通过poll的方式来同步数据。

isr: 可以同步的broker节点和已同步的broker节点,存放在isr集合中。

通过kill掉leader后再查看主题情况

# kill掉leader
docker stop kafka3

# 查看topic情况
./kafka-topics.sh --bootstrap-server 服务器IP地址:9092 --topic my-replicated-topic --describe

运行结果:
Topic: my-replicated-topic      TopicId: x61TtWHyTzCg1XlAcOQQ5w PartitionCount: 2       ReplicationFactor: 2    Configs: segment.bytes=1073741824
        Topic: my-replicated-topic      Partition: 0    Leader: 2       Replicas: 3,2   Isr: 2
        Topic: my-replicated-topic      Partition: 1    Leader: 2       Replicas: 2,3   Isr: 2

删除topic命令

./kafka-topics.sh --bootstrap-server 服务器IP地址:9092 --delete --topic my-replicated-topic

查看当前topic有哪些

./kafka-topics.sh --bootstrap-server 服务器IP地址:9092 -list

3.broker、主题、分区、副本

  • kafka集群中由多个broker组成
  • 一个broker中存放一个topic的不同partition——副本

注意: 副本的数量不能超过集群节点的数量

向集群中的某个topic发送数据, 集群会首先计算出来这条数据归哪个patition存储, 确定了patition后, 存储到这个分区对应的leader中,随后,其他副本节点会将这条新的数据同步到自己的kafka副本中, 下面这张图演示的是, 3个broker, 一个topic1, topic1有2个分区, 3个副本

https://selton-1257770752.cos.ap-beijing.myqcloud.com/img/202304200041045.png

4.kafka集群消息的发送

💡 注意: 刚刚演示的kafka3被关闭了, 启动一下

创建topic

./kafka-topics.sh --create --topic my-replicated-topic --bootstrap-server 服务器IP地址:9092 --replication-factor 2 --partitions 2

发送数据

./kafka-console-producer.sh --broker-list 服务器IP地址:9092,服务器IP地址:9093 --topic my-replicated-topic

5.kafka集群消息的消费

./kafka-console-consumer.sh --bootstrap-server 服务器IP地址:9092,服务器IP地址:9093 --from-beginning --topic my-replicated-topic

6.关于分区消费组消费者的细节

./kafka-console-consumer.sh --bootstrap-server 服务器IP地址:9092,服务器IP地址:9093 --from-beginning --topic my-replicated-topic --consumer-property group.id=testGroup1

./kafka-consumer-groups.sh --bootstrap-server 服务器IP地址:9092 --describe --group testGroup1

##运行结果:
Consumer group 'testGroup1' has no active members.

GROUP           TOPIC               PARTITION  CURRENT-OFFSET  LOG-END-OFFSET  LAG             CONSUMER-ID     HOST            CLIENT-ID
testGroup1      my-replicated-topic 0          3               3               0               -               -               -
testGroup1      my-replicated-topic 1          0               0               0               -               -               -

https://selton-1257770752.cos.ap-beijing.myqcloud.com/img/202304200041046.png

图中Kafka集群有两个broker,每个broker中有多个partition。一个partition只能被一个消费组里的某一个消费者消费,从而保证消费顺序。Kafka只在partition的范围内保证消息消费的局部顺序性,不能在同一个topic中的多个partition中保证总的消费顺序性。一个消费者可以消费多个partition

消费组中消费者的数量不能比一个topic中的partition数量多,否则多出来的消费者消费不到消息。


六、Kafka的Java客户端-生产者

1.引入依赖

kafka的maven依赖需要和docker安装的kafka版本对应上

进入到kafka容器中,查看kafka版本为3.5.1,所以Maven依赖的版本也为3.5.1

cd /opt/bitnami/kafka/libs

在这里插入图片描述

    <dependencies>
        <dependency>
            <groupId>org.apache.kafka</groupId>
            <artifactId>kafka_2.12</artifactId>
            <version>3.5.1</version>
        </dependency>

        <!-- https://mvnrepository.com/artifact/com.fasterxml.jackson.core/jackson-databind -->
        <dependency>
            <groupId>com.fasterxml.jackson.core</groupId>
            <artifactId>jackson-databind</artifactId>
            <version>2.13.3</version>
        </dependency>

        <dependency>
            <groupId>org.projectlombok</groupId>
            <artifactId>lombok</artifactId>
            <version>1.18.24</version>
        </dependency>
    </dependencies>

2.生产者发送消息的基本实现

要向 Kafka 写入消息,首先需要创建一个生产者对象,并设置一些属性。Kafka 生产者有3个必选的属性

  • bootstrap.servers:该属性指定 broker 的地址清单,地址的格式为 host:port。清单里不需要包含所有的 broker 地址,生产者会从给定的 broker 里查找到其他的 broker 信息。不过建议至少要提供两个 broker 信息,一旦其中一个宕机,生产者仍然能够连接到集群上。

  • key.serializer:broker 需要接收到序列化之后的 key/value值,所以生产者发送的消息需要经过序列化之后才传递给 Kafka Broker。生产者需要知道采用何种方式把 Java 对象转换为字节数组。key.serializer 必须被设置为一个实现了org.apache.kafka.common.serialization.Serializer 接口的类,生产者会使用这个类把键对象序列化为字节数组。这里拓展一下 Serializer 类

    • Serializer 是一个接口,它表示类将会采用何种方式序列化,它的作用是把对象转换为字节,实现了 Serializer 接口的类主要有 ByteArraySerializer、StringSerializer、IntegerSerializer ,其中 ByteArraySerialize 是 Kafka 默认使用的序列化器,其他的序列化器还有很多,你可以通过 这里 查看其他序列化器。要注意的一点:key.serializer 是必须要设置的,即使你打算只发送值的内容。
  • value.serializer:与 key.serializer 一样,value.serializer 指定的类会将值序列化。实现了 org.apache.kafka.common.serialization.Serializer 接口

此处属性详解参考文章Kafka 入门知识

/\*\*
 \* 替代黑窗口中的生产者
 \*/
public class KafkaProducerClient {

    public static void main(String[] args) throws ExecutionException, InterruptedException {

        Properties properties = new Properties();
        properties.setProperty(ProducerConfig.BOOTSTRAP\_SERVERS\_CONFIG, "服务器IP地址:9092,服务器IP地址:9093");
        properties.setProperty(ProducerConfig.KEY\_SERIALIZER\_CLASS\_CONFIG, StringSerializer.class.getName());
        properties.setProperty(ProducerConfig.VALUE\_SERIALIZER\_CLASS\_CONFIG, StringSerializer.class.getName());

        KafkaProducer<String, String> kafkaProducer = new KafkaProducer<>(properties);

        //String -> Object -> HashCode -> 这个字符串在内存中的地址值, 唯一值
        ProducerRecord<String, String> record = new ProducerRecord<>("my-replicated-topic",  "hello, kafka3");

        RecordMetadata recordMetadata = kafkaProducer.send(record).get();

        System.out.println("recordMetadata = " + recordMetadata);

    }
}

以上代码

  • 首先创建了一个 Properties 对象
  • 使用 StringSerializer 序列化器序列化 key / value 键值对
  • 在这里我们创建了一个新的生产者对象,并为键值设置了恰当的类型,然后把 Properties 对象传递给他。

3.发送消息到指定分区上

ProducerRecord<String, String> producerRecord = new ProducerRecord<String, String>(TOPIC\_NAME, 0 , "555", objectMapper.writeValueAsString(order));

4.未指定分区,则会通过业务key的hash运算,算出消息往哪个分区上发

String -> Object -> HashCode -> 这个字符串在内存中的地址值, 唯一值

//String -> Object -> HashCode -> 这个字符串在内存中的地址值, 唯一值
//1.0 不指明分区[最常用]
ProducerRecord<String, String> record = new ProducerRecord<>("my-replicated-topic",  "hello, kafka3");

//2.0 指明key "1" => 7 7%2= [同样的key的数据会被放在同一个分区]
ProducerRecord<String, String> record = new ProducerRecord<>("my-replicated-topic","hello",  "Hi!!!Dog");

//3.0 直接指明分区
ProducerRecord<String, String> record = new ProducerRecord<>("my-replicated-topic",1, null,  "five step "); 

        //4.0 发送对象
        Student stu1 = new Student();
        stu1.setId("15321");
        stu1.setAge(20);
        stu1.setName("贝拉");
        //使用json进行转换
        ObjectMapper objectMapper = new ObjectMapper();
        String stuStr = objectMapper.writeValueAsString(stu1);
        System.out.println("stuStr = " + stuStr);//stuStr = {"id":"15321","name":"贝拉","age":20}
        ProducerRecord<String, String> record = new ProducerRecord<>("my-replicated-topic",  stuStr);

        RecordMetadata recordMetadata = kafkaProducer.send(record).get();

        System.out.println("该条数据被分配到了分区" + recordMetadata.partition());

运行结果:
stuStr = {"id":"15321","name":"贝拉","age":20}
callback所在线程名称 = Thread[kafka-producer-network-thread | producer-1,5,main]
消息对方已收到, 消息被分配到了-> my-replicated-topic-1@16
当前线程名称:main
当前线程名称:main

5.同步发送

生产者同步发消息,在收到kafka的ack告知发送成功之前一直处于阻塞状态

//等待消息发送成功的同步阻塞方法
RecordMetadata metadata = producer.send(producerRecord).get();
System.out.println("同步方式发送消息结果:" + "topic-" +metadata.topic() + "|partition-"+ metadata.partition() + "|offset-" +metadata.offset());

https://selton-1257770752.cos.ap-beijing.myqcloud.com/img/202304200041047.png

6.异步发消息

生产者发消息,发送完后不用等待broker给回复,直接执行下面的业务逻辑。

可以提供callback,让broker异步的调用callback,告知生产者,消息发送的结果
函数式接口 (Functional Interface)就是一个有且仅有一个抽象方法,但是可以有多个非抽象方法的接口。 函数式接口可以被隐式转换为 lambda 表达式。以下的Callback就是一个官方的函数式接口。

public interface Callback {
    void onCompletion(RecordMetadata var1, Exception var2);
}

java中所有的线程可以分为守护线程或者用户线程(非守护线程)。当所有的用户线程都结束后, 无论守护线程是否完成了任务, 都会被强行中止结束。

//callback:回调 异步发消息: 生产者发消息,发送完后不用等待broker给回复,直接执行下面的业务逻辑。
        kafkaProducer.send(record,(recordMetadata, e) ->{
            System.out.println("callback所在线程名称 = " + Thread.currentThread());
            if (e == null){
                System.out.println("消息对方已收到, 消息被分配到了-> " + recordMetadata);
            }else {
                System.out.println("消息kafka接收失败, 具体失败原因");
                e.printStackTrace();
            }
        });

        while (true){
            TimeUnit.SECONDS.sleep(2);
            System.out.println("当前线程名称:" + Thread.currentThread().getName());
        }

7.关于生产者的ack参数配置

在同步发消息的场景下:生产者发到broker上后,ack会有 3 种不同的选择:

  • ( 1 )acks=0: 表示producer不需要等待任何broker确认收到消息的回复,就可以继续发送下一条消息。性能最高,但是最容易丢消息。
  • ( 2 )acks=1: 至少要等待leader已经成功将数据写入本地log,但是不需要等待所有follower是否成功写入。就可以继续发送下一条消息。这种情况下,如果follower没有成功备份数据,而此时leader又挂掉,则消息会丢失。
  • ( 3 )acks=-1或all: 需要等待 min.insync.replicas(默认为 1 ,推荐配置大于等于2) 这个参数配置的副本个数都成功写入日志,这种策略会保证只要有一个备份存活就不会丢失数据。这是最强的数据保证。一般除非是金融级别,或跟钱打交道的场景才会使用这种配置。
//ack配置 1. "1" 2."0" 3."-1/all/4"
properties.setProperty(ProducerConfig.ACKS\_CONFIG, "1");

8.其他一些细节

  • 发送会默认会重试 3 次,每次间隔100ms
  • 发送的消息会先进入到本地缓冲区(32mb),kakfa会跑一个线程,该线程去缓冲区中取16k的数据,发送到kafka,如果到10毫秒数据没取满16k,也会发送一次。 (微批处理)

七、消费者

1.消费者消费消息的基本实现

在读取消息之前,需要先创建一个 KafkaConsumer 对象。创建 KafkaConsumer 对象与创建 KafkaProducer 对象十分相似 — 把需要传递给消费者的属性放在 properties 对象中,使用3个属性分别是 bootstrap.serverkey.deserializervalue.deserializer

还有一个属性是 group.id 这个属性不是必须的,它指定了 KafkaConsumer 是属于哪个消费者群组。创建不属于任何一个群组的消费者也是可以的。

class KafkaConsumerClient{
    public static void main(String[] args) {
        Properties properties = new Properties();
        properties.setProperty(ConsumerConfig.BOOTSTRAP\_SERVERS\_CONFIG, "服务器IP地址:9092,服务器IP地址:9093");
        properties.setProperty(ConsumerConfig.GROUP\_ID\_CONFIG, "java23");
        properties.setProperty(ConsumerConfig.KEY\_DESERIALIZER\_CLASS\_CONFIG, StringDeserializer.class.getName());
        properties.setProperty(ConsumerConfig.VALUE\_DESERIALIZER\_CLASS\_CONFIG, StringDeserializer.class.getName());

        KafkaConsumer<String, String> kafkaConsumer = new KafkaConsumer<>(properties);

        kafkaConsumer.subscribe(Arrays.asList("my-replicated-topic"));

        while (true) {

            ConsumerRecords<String, String> consumerRecords = kafkaConsumer.poll(Duration.ofSeconds(2));

            for (ConsumerRecord<String, String> record : consumerRecords) {
                System.out.println("我是消费者, 我拿到了一条数据:");
                System.out.println(record.value());
            }
        }
    }
}

2.自动提交offset

  • 设置自动提交参数 - 默认
// 是否自动提交offset,默认就是true 自动提交偏移量
//false: 关闭自动提交, 变成了手动提交
properties.setProperty(ConsumerConfig.ENABLE\_AUTO\_COMMIT\_CONFIG,"true");
//自动提交offset的间隔时间: 每隔1s自动提交一次偏移量
properties.setProperty(ConsumerConfig.AUTO\_COMMIT\_INTERVAL\_MS\_CONFIG,"1000");

消费者poll到消息后默认情况下,会自动向broker的_consumer_offsets主题提交当前主题-分区消费的偏移量。

自动提交会丢消息: 因为如果消费者还没消费完poll下来的消息就自动提交了偏移量,那么此时消费者挂了,于是下一个消费者会从已提交的offset的下一个位置开始消费消息。之前未被消费的消息就丢失掉了。

3.手动提交offset

当程序代码出现异常的时候, 出现异常的数据会因为没有提交偏移量, 在下一次的拉取中被重新拉取到处理

  • 设置手动提交参数
//false: 关闭自动提交, 变成了手动提交
properties.setProperty(ConsumerConfig.ENABLE\_AUTO\_COMMIT\_CONFIG,"false");

如果使用手动提交偏移量的方式进行消费,并且之前已经提交过偏移量了(也是之前的kafka的服务端的当前offset中已经有了偏移量了) ,那么下一次消费时会从已有的那次偏移量开始拉取数据, 从而造成数据的重复消费。

如果使用手动提交偏移量的方式进行消费,并且没有提交偏移量,则会根据消费配置 (默认的消费配置是从最新拉取, 也可以设定成从头拉取)进行拉取数据 这是因为Kafka在进行消费时会根据消费者组、分区、偏移量来判断哪些消息需要被消费,如果没有提交偏移量,那么Kafka就会认为你是一个新的消费者,新的消费者则会依据究竟是从头拉取还是从最新拉取来进行数据的消费。

当提交模式设置为手动提交,因为还没做过提交,所以kafka上没有offset值, 所以依据属性 auto.offset.reset ,默认值 latest,它会让消费者从最后的offset开始消费;

在消费完消息后进行手动提交

  • 手动同步提交
	if (records.count() > 0 ) {//业务处理代码
		// 手动同步提交offset,当前线程会阻塞直到offset提交成功
		// 一般使用同步提交,因为提交之后一般也没有什么逻辑代码了
		consumer.commitSync();
	}

  • 手动异步提交
	if (records.count() > 0 ) {
    // 手动异步提交offset,当前线程提交offset不会阻塞,可以继续处理后面的程序逻辑
	
	//处理逻辑
		consumer.commitAsync((offsets, exception) -> {
        if (exception != null) {
        	System.err.println("Commit failed for " + offsets);
            System.err.println("Commit failed exception: " +exception.getStackTrace());


### 最后

**这份清华大牛整理的进大厂必备的redis视频、面试题和技术文档**

祝大家早日进入大厂,拿到满意的薪资和职级~~~加油!!

感谢大家的支持!!

![image.png](https://img-blog.csdnimg.cn/img_convert/975ad88958f2fba196ccbf03cf9fe785.webp?x-oss-process=image/format,png)



 ,默认值 latest,它会让消费者从最后的offset开始消费;


**在消费完消息后进行手动提交**


* 手动同步提交



if (records.count() > 0 ) {//业务处理代码
	// 手动同步提交offset,当前线程会阻塞直到offset提交成功
	// 一般使用同步提交,因为提交之后一般也没有什么逻辑代码了
	consumer.commitSync();
}

* 手动异步提交



if (records.count() > 0 ) {
// 手动异步提交offset,当前线程提交offset不会阻塞,可以继续处理后面的程序逻辑

//处理逻辑
	consumer.commitAsync((offsets, exception) -> {
    if (exception != null) {
    	System.err.println("Commit failed for " + offsets);
        System.err.println("Commit failed exception: " +exception.getStackTrace());

最后

这份清华大牛整理的进大厂必备的redis视频、面试题和技术文档

祝大家早日进入大厂,拿到满意的薪资和职级~~~加油!!

感谢大家的支持!!

[外链图片转存中…(img-jsSsnRzn-1714410573487)]

本文已被CODING开源项目:【一线大厂Java面试题解析+核心总结学习笔记+最新讲解视频+实战项目源码】收录

  • 3
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
Java使用Kafka进行消息发送和生产的示例代码如下: ```java import org.apache.kafka.clients.producer.*; import java.util.Properties; public class ProducerTest { public static void main(String[] args) { // 1. 创建生产者配置 Properties props = new Properties(); props.put("bootstrap.servers", "192.168.88.100:9092"); props.put("acks", "all"); props.put("key.serializer", "org.apache.kafka.common.serialization.StringSerializer"); props.put("value.serializer", "org.apache.kafka.common.serialization.StringSerializer"); // 2. 创建生产者 Producer<String, String> producer = new KafkaProducer<>(props); // 3. 发送1-100数字到Kafka的test主题中 for (int i = 1; i <= 100; i++) { Future<RecordMetadata> future = producer.send(new ProducerRecord<>("test", Integer.toString(i), Integer.toString(i))); // 阻塞程序往下执行,直到Kafka生产数据成功 RecordMetadata recordMetadata = future.get(); System.out.println("生产到" + recordMetadata.topic() + "成功!"); } // 4. 关闭生产者连接 producer.close(); } } ``` 以上是一个简单的Java程序,使用KafkaJava客户端库发送1到100的数字消息到名为"test"的Kafka主题中。程序首先创建一个生产者配置对象,设置了Kafka集群地址、消息确认方式以及序列化器等属性。然后,创建生产者对象,并使用`send`方法发送消息到Kafka主题。程序会阻塞直到消息发送成功,然后打印出发送成功的信息。最后,关闭生产者连接。 请注意,为了运行以上代码,你需要在项目中引入KafkaJava客户端库。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值