Kafka API
Producer API
1.1消息发送流程
Kafka 的 Producer 发送消息采用的是异步发送的方式。在消息发送的过程中,涉及到了两个线程——main 线程和 Sender 线程,以及一个线程共享变量——RecordAccumulator。 main 线程将消息发送给 RecordAccumulator,Sender 线程不断从 RecordAccumulator 中拉取消息发送到 Kafka broker。
batch.size:只有数据积累到batch.size之后,sender才会发送数据。
linger.ms:如果数据迟迟未达到batch.size,sender等待linger.time之后就会发送数据
1.2异步发送API
直接实现
(1)创建maven项目kafka01。
(2)向pom.xml导入依赖
<dependencies>
<dependency>
<groupId>org.apache.kafka</groupId>
<artifactId>kafka-clients</artifactId>
<version>2.4.1</version>
</dependency>
<dependency>
<groupId>org.apache.logging.log4j</groupId>
<artifactId>log4j-slf4j-impl</artifactId>
<version>2.12.0</version>
</dependency>
</dependencies>
(3)在项目 resources目录中新建 log4j2.xml 文档
<?xml version="1.0" encoding="UTF-8"?>
<Configuration status="error" strict="true" name="XMLConfig">
<Appenders>
<!-- 类型名为Console,名称为必须属性 -->
<Appender type="Console" name="STDOUT">
<!-- 布局为PatternLayout的方式,
输出样式为[INFO] [2018-01-22 17:34:01][org.test.Console]I'm here -->
<Layout type="PatternLayout"
pattern="[%p] [%d{yyyy-MM-dd HH:mm:ss}][%c{10}]%m%n" />
</Appender>
</Appenders>
<Loggers>
<!-- 可加性为false -->
<Logger name="test" level="info" additivity="false">
<AppenderRef ref="STDOUT" />
</Logger>
<!-- root loggerConfig设置 -->
<Root level="info">
<AppenderRef ref="STDOUT" />
</Root>
</Loggers>
</Configuration>
(4)创建类:com.itwise.kafka.producer.ProducerDome01
KafkaProducer:需要创建一个生产者对象,用来发送数据
ProducerConfig:获取所需的一系列配置参数
ProducerRecord:每条数据都要封装成一个ProducerRecord对象
package com.itwise.kafka.producer;
import org.apache.kafka.clients.producer.KafkaProducer;
import org.apache.kafka.clients.producer.ProducerRecord;
import java.util.Properties;
public class ProducerDome01 {
/**
* 链接哪一个topic分区
*/
public static void main(String[] args) {
// 定义参数,通过这个属性对象将参数传递进来
Properties props = new Properties();
// 连接kafka集群
props.put("bootstrap.servers", "node2:9092");
// 应答机制--all(-1)
props.put("acks", "all");
// 重试的次数,重连
props.put("retries", 1);
// 每个批次大小(16k)
props.put("batch.size", 16384);
// 等待时间
props.put("linger.ms",1);
// RecordAccumulator 缓冲区大小 32MB
props.put("buffer.memory", 33554432);
// serializer序列化配置;
props.put("key.serializer", "org.apache.kafka.common.serialization.StringSerializer");
props.put("value.serializer", "org.apache.kafka.common.serialization.StringSerializer");
// 需要传参数
KafkaProducer<String, String> stringStringKafkaProducer
= new KafkaProducer<String, String>(props);
// 发送消息
//发送消息:
for (int i = 0; i < 2000; i++) {
stringStringKafkaProducer.send(new ProducerRecord<String,String>("itwise","itwise-"+i));
//stringStringKafkaProducer.send(new ProducerRecord<String,String>("itwise",0,null,"itwise->"+i));
/* stringStringKafkaProducer.send(new ProducerRecord<String,String>
("itwise", UUID.randomUUID().toString(),"itwise-->>"+i));*/
}
// 关闭IO流
stringStringKafkaProducer.close();
}
}
(5)连接消费者查看是否成功
[itwise@node2 ~]$ kafka-console-consumer.sh --consumer.config /opt/module/kafka_2.11-2.4.1/config/consumer.properties --bootstrap-server node2:9092 --topic itwise
(6)实验结果:
1.3带回调函数的使用:
回调函数会在producer收到ack时调用,为异步调用,该方法有两个参数,分别RecordMetadata和Exception,如果Exception为null,说明消息发送成功,如果Exception不为null,说明消息发送失败。
注意:消息发送失败会自动重试,不需要我们在回调函数中手动重试。
(1)java代码实现
package com.itwise.kafka.producer;
import org.apache.kafka.clients.producer.Callback;
import org.apache.kafka.clients.producer.KafkaProducer;
import org.apache.kafka.clients.producer.ProducerRecord;
import org.apache.kafka.clients.producer.RecordMetadata;
import java.util.Properties;
public class ProducerDome02_Callback {
/**
* 链接哪一个topic分区
*/
public static void main(String[] args) {
// 定义参数,通过这个属性对象将参数传递进来
Properties props = new Properties();
// 连接kafka集群
// ProducerConfig 生产者的配置对象
// ConsumerConfig 消费者的配置对象
props.put("bootstrap.servers", "node2:9092");
// 应答机制--all(-1)
props.put("acks", "all");
// 重试的次数,重连
props.put("retries", 1);
// 每个批次大小(16k)
props.put("batch.size", 16384);
// 等待时间
props.put("linger.ms",1);
// RecordAccumulator 缓冲区大小 32MB
props.put("buffer.memory", 33554432);
// serializer序列化配置;
props.put("key.serializer", "org.apache.kafka.common.serialization.StringSerializer");
props.put("value.serializer", "org.apache.kafka.common.serialization.StringSerializer");
// 需要传参数
KafkaProducer<String, String> stringStringKafkaProducer
= new KafkaProducer<String, String>(props);
// 发送消息
//发送消息:
for (int i = 0; i < 2000; i++) {
stringStringKafkaProducer.send(new ProducerRecord<String, String>("itwise", "itwise--" + i),
// 添加回调机制,从java控制台输出,重写方法
new Callback() {
@Override
public void onCompletion(RecordMetadata recordMetadata, Exception e) {
// 判断信息是否发送成功
if (e == null) {
// 发送成功,并返回主题,元数据,分区,key,value
System.out.println("发送成功"+recordMetadata.topic()+","+recordMetadata.partition()
+","+recordMetadata.offset()+","+recordMetadata.serializedKeySize()
+","+recordMetadata.serializedValueSize());
}else {
// 返回报错信息
System.out.println("发送失败"+e.getMessage());
}
}
});
//stringStringKafkaProducer.send(new ProducerRecord<String,String>("itwise",0,null,"itwise->"+i));
/* stringStringKafkaProducer.send(new ProducerRecord<String,String>
("itwise", UUID.randomUUID().toString(),"itwise-->>"+i));*/
}
// 关闭IO流
stringStringKafkaProducer.close();
}
}
演示结果:
1.4带回调函数的同步
同步发送的意思就是,一条消息发送之后,会阻塞当前线程,直至返回ack。
由于send方法返回的是一个Future对象,根据Futrue对象的特点,我们也可以实现同步发送的效果,只需在调用Future对象的get方发即可
java代码
package com.itwise.kafka.producer;
import org.apache.kafka.clients.producer.Callback;
import org.apache.kafka.clients.producer.KafkaProducer;
import org.apache.kafka.clients.producer.ProducerRecord;
import org.apache.kafka.clients.producer.RecordMetadata;
import java.util.Properties;
import java.util.concurrent.ExecutionException;
import java.util.concurrent.Future;
public class ProducerDome03_Callback_all {
/**
* 链接哪一个topic分区
*/
public static void main(String[] args) throws ExecutionException, InterruptedException {
// 定义参数,通过这个属性对象将参数传递进来
Properties props = new Properties();
// 连接kafka集群
// ProducerConfig 生产者的配置对象
// ConsumerConfig 消费者的配置对象
props.put("bootstrap.servers", "node2:9092");
// 应答机制--all(-1)
props.put("acks", "all");
// 重试的次数,重连
props.put("retries", 1);
// 每个批次大小(16k)
props.put("batch.size", 16384);
// 等待时间
props.put("linger.ms",1);
// RecordAccumulator 缓冲区大小 32MB
props.put("buffer.memory", 33554432);
// serializer序列化配置;
props.put("key.serializer", "org.apache.kafka.common.serialization.StringSerializer");
props.put("value.serializer", "org.apache.kafka.common.serialization.StringSerializer");
// 需要传参数
KafkaProducer<String, String> stringStringKafkaProducer
= new KafkaProducer<String, String>(props);
// 发送消息
//发送消息:
for (int i = 0; i < 2000; i++) {
//将生产者调用
Future<RecordMetadata> future= stringStringKafkaProducer.send(new ProducerRecord<String, String>(
"itwise", "itwise_future同步" + i),
// 添加回调机制,从java控制台输出,重写方法
new Callback() {
@Override
public void onCompletion(RecordMetadata recordMetadata, Exception e) {
// 判断信息是否发送成功
if (e == null) {
// 发送成功,并返回主题,元数据,分区,key,value
System.out.println("发送成功"+recordMetadata.topic()+","+recordMetadata.partition()
+","+recordMetadata.offset()+","+recordMetadata.serializedKeySize()
+","+recordMetadata.serializedValueSize());
}else {
// 返回报错信息
System.out.println("发送失败"+e.getMessage());
}
}
});
System.out.println("真正发送");
// 调用future,抛出异常
future.get();
System.out.println("发送完毕");
}
// 关闭IO流
stringStringKafkaProducer.close();
}
}
同步与异步
getMessage());
}
}
});
System.out.println(“真正发送”);
// 调用future,抛出异常
future.get();
System.out.println(“发送完毕”);
}
// 关闭IO流
stringStringKafkaProducer.close();
}
}
同步与异步
[外链图片转存中...(img-DDnby5fQ-1712839914579)]
![外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传](https://img-home.csdnimg.cn/images/20230724024159.png?origin_url=C%3A%5CUsers%5CAdministrator%5CAppData%5CRoaming%5CTypora%5Ctypora-user-images%5Cimage-20240313204243558.png&pos_id=img-UjFujOnV-1712839914579)