kafka学习(2)之java的生产者和消费者

添加依赖:

<dependency>
		<groupId>org.apache.kafka</groupId>
		<artifactId>kafka-clients</artifactId>
		<version>2.4.0</version>
</dependency>

生产者:

import java.util.Properties;

import org.apache.kafka.clients.producer.KafkaProducer;
import org.apache.kafka.clients.producer.Producer;
import org.apache.kafka.clients.producer.ProducerConfig;
import org.apache.kafka.clients.producer.ProducerRecord;
import org.apache.kafka.common.serialization.StringSerializer;
public class MyProducer
{
	public static void main(String[] args) throws Exception {
		Properties properties = new Properties();
		//设置broker的地址
		properties.setProperty(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG, "192.168.112.111:9092,192.168.112.111:9093");
		//设置发送序列化的key和value的序列化对象
		properties.setProperty(ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG, "org.apache.kafka.common.serialization.StringSerializer");
		properties.setProperty(ProducerConfig.VALUE_SERIALIZER_CLASS_CONFIG, "org.apache.kafka.common.serialization.StringSerializer");
		//创建一个发送者producer
		Producer<String, String> producer = new KafkaProducer<>(properties);
		for (int i = 0; i < 10; i++)
		{
			//发送只有value的record
			ProducerRecord<String, String> record=new ProducerRecord<String, String>("mytopic1", "topic_"+i);
			//发送带有key的record
			//ProducerRecord<String, String> record=new ProducerRecord<String, String>("mytopic1","key_"+i ,"value_"+i);
			producer.send(record);
			Thread.sleep(1000);
		}
		//使用完后关闭发送者
		producer.close();
	}
}

消费者:

import java.time.Duration;
import java.util.Arrays;
import java.util.Properties;

import org.apache.kafka.clients.consumer.Consumer;
import org.apache.kafka.clients.consumer.ConsumerConfig;
import org.apache.kafka.clients.consumer.ConsumerRecord;
import org.apache.kafka.clients.consumer.ConsumerRecords;
import org.apache.kafka.clients.consumer.KafkaConsumer;

public class MyConsumer
{
	public static void main(String[] args) {
		Properties properties = new Properties();
		//设置broker的地址
		properties.setProperty(ConsumerConfig.BOOTSTRAP_SERVERS_CONFIG, "192.168.112.111:9092,192.168.112.111:9093");
		//创建分组
		properties.setProperty(ConsumerConfig.GROUP_ID_CONFIG, "group1");
		//设置接收的key的序列化对象和value的序列化对象
		properties.setProperty(ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG, "org.apache.kafka.common.serialization.StringDeserializer");
		properties.setProperty(ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG, "org.apache.kafka.common.serialization.StringDeserializer");
		//创建consumer对象
		Consumer<String, String> consumer=new KafkaConsumer<>(properties);
		//订阅主题,如果有多个话,可以用逗号隔开
		consumer.subscribe(Arrays.asList("mytopic1"));
		while (true)
		{
		//使用Duration指定消费间隔,多长时间拉取一次消息
			ConsumerRecords<String,String> consumerRecords = consumer.poll(Duration.ofSeconds(2));
			for (ConsumerRecord<String, String> record : consumerRecords)
			{
				System.out.println("-------------------------------");
				System.out.println("topic: "+record.topic());
				System.out.println("partition: "+record.partition());
				System.out.println("offset: "+record.offset());
				System.out.println("timestamp: "+record.timestamp());
				System.out.println("key: "+record.key());
				System.out.println("value: "+record.value());
				System.out.println("-------------------------------");
			}
			
			
		}
	}
}

在这里插入图片描述
一些其他的配置参数:
生产者端的

/*
		 * ProducerConfig.ACKS_CONFIG:Server端接收到Producer发送的消息后,确认的机制
		  	0:  表示不需要Server进行确认,效率最高,可靠性最差
		    1:  表示需要leader进行确认,但不需要follower确认
		    all:表示需要leader和follower都需要确认:效率最差、但是最可靠
		 */
		/*
			ProducerConfig.RETRIES_CONFIG  发送消息失败后,重试的次数
		*/
		/*
			ProducerConfig.BATCH_SIZE_CONFIG 控制生产者批量发送消息的大小,提高客户端和服务器端的吞吐量
		*/
		/*
			ProducerConfig.LINGER_MS_CONFIG 指定发送消息的时间间隔
		*/
		/*
			ProducerConfig.BUFFER_MEMORY_CONFIG 发送缓冲区的大小
		*/

消费者端的:

//ConsumerConfig.ENABLE_AUTO_COMMIT_CONFIG 建议设置true,表示自动提交消费的进度
//ConsumerConfig.AUTO_COMMIT_INTERVAL_MS_CONFIG 自动提交消费进度的时间间隔 (毫秒)
  • 2
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
Kafka是一个开源的分布式消息系统,可以实现高吞吐量、低延迟的数据传输。下面是一个使用Java代码实现Kafka生产者消费者通信的例子: 1. 生产者 ```java import java.util.Properties; import org.apache.kafka.clients.producer.Producer; import org.apache.kafka.clients.producer.ProducerRecord; import org.apache.kafka.clients.producer.KafkaProducer; public class KafkaProducerExample { public static void main(String[] args) { String topicName = "myTopic"; // 指定要发送到的主题名 String key = "myKey"; // 指定消息的key String value = "Hello, Kafka!"; // 指定消息的value Properties props = new Properties(); props.put("bootstrap.servers", "localhost:9092"); // 指定Kafka集群的地址和端口号 props.put("acks", "all"); // 指定生产者在接收到确认消息之前需要多少个副本确认消息 props.put("retries", 0); // 指定生产者在发送失败时需要重试的次数 props.put("batch.size", 16384); // 指定生产者将等待多个消息一起发送的大小(以字节为单位) props.put("linger.ms", 1); // 指定生产者在等待发送批次之前等待的时间(以毫秒为单位) props.put("buffer.memory", 33554432); // 指定生产者可以使用的总内存量(以字节为单位) props.put("key.serializer", "org.apache.kafka.common.serialization.StringSerializer"); // 指定key序列化器 props.put("value.serializer", "org.apache.kafka.common.serialization.StringSerializer"); // 指定value序列化器 Producer<String, String> producer = new KafkaProducer<>(props); ProducerRecord<String, String> record = new ProducerRecord<>(topicName, key, value); producer.send(record); producer.close(); } } ``` 2. 消费者 ```java import java.util.Collections; import java.util.Properties; import org.apache.kafka.clients.consumer.ConsumerRecords; import org.apache.kafka.clients.consumer.ConsumerRecord; import org.apache.kafka.clients.consumer.KafkaConsumer; public class KafkaConsumerExample { public static void main(String[] args) { String topicName = "myTopic"; // 指定要消费的主题名 Properties props = new Properties(); props.put("bootstrap.servers", "localhost:9092"); // 指定Kafka集群的地址和端口号 props.put("group.id", "myGroup"); // 指定消费者组的ID props.put("enable.auto.commit", "true"); // 指定消费者是否自动提交偏移量 props.put("auto.commit.interval.ms", "1000"); // 指定消费者在自动提交偏移量之前等待的时间(以毫秒为单位) props.put("key.deserializer", "org.apache.kafka.common.serialization.StringDeserializer"); // 指定key反序列化器 props.put("value.deserializer", "org.apache.kafka.common.serialization.StringDeserializer"); // 指定value反序列化器 KafkaConsumer<String, String> consumer = new KafkaConsumer<>(props); consumer.subscribe(Collections.singletonList(topicName)); while (true) { ConsumerRecords<String, String> records = consumer.poll(100); for (ConsumerRecord<String, String> record : records) { System.out.printf("offset = %d, key = %s, value = %s%n", record.offset(), record.key(), record.value()); } } } } ``` 以上是一个简单的Kafka生产者消费者通信用例的Java代码。其中,生产者将一条消息发送到指定的主题中,而消费者则从指定的主题中拉取并消费消息。相关问题如下:

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

枣泥馅

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值