一、第一个Kafka程序
1、创建我们的主题
创建主题命令如下:kafka-topics.bat --zookeeper localhost:2181/kafka --create --topic hello-kafka --replication-factor 1 --partitions 4
2、生产者发送消息
我们这里使用Kafka内置的客户端API开发kafka应用程序。因为我们是Java程序员,所以这里我们使用Maven,使用最新版本。
<dependency>
<groupId>org.apache.kafka</groupId>
<artifactId>kafka-clients</artifactId>
<version>2.3.0</version>
</dependency>
生产者代码示例如下:
public class HelloKafkaProducer {
public static void main(String[] args) {
//TODO 生产者三个属性必须指定(broker地址清单、key和value的序列化器)
Properties properties = new Properties();
properties.put("bootstrap.servers","127.0.0.1:9092");
properties.put("key.serializer", "org.apache.kafka.common.serialization.StringSerializer");
properties.put("value.serializer", "org.apache.kafka.common.serialization.StringSerializer");
KafkaProducer<String,String> producer = new KafkaProducer<String, String>(properties);
try {
ProducerRecord<String,String> record;
try {
//TODO 发送4条消息
for(int i=0;i<4;i++){
record = new ProducerRecord<String,String>(BusiConst.HELLO_TOPIC, String.valueOf(i),"lison");
producer.send(record);
System.out.println(i+",message is sent");
}
} catch (Exception e) {
e.printStackTrace();
}
} finally {
producer.close();
}
}
}
必选属性:
创建生产者对象时有三个属性必须指定。
bootstrap.servers:
该属性指定broker的地址清单,地址的格式为host:port。清单里不需要包含所有的broker地址,生产者会从给定的broker里查询其他broker的信息。
不过最少提供2个broker的信息(用逗号分隔,比如: 127.0.0.1:9092,192.168.0.13:9092),一旦其中一个宕机,生产者仍能连接到集群上。
key.serializer:
生产者接口允许使用参数化类型,可以把Java对象作为键和值传broker,但是broker希望收到的消息的键和值都是字节数组,所以,必须提供将对象序列化成字节数组的序列化器。key.serializer必须设置为实现org.apache.kafka.common.serialization.Serializer的接口类,Kafka的客户端默认提供了ByteArraySerializer、IntegerSerializer、StringSerializer,也可以实现自定义的序列化器。
value.serializer:
同key.serializer,参见代码模块kafka-no-spring下包hellokafka中
properties.put("key.serializer", "org.apache.kafka.common.serialization.StringSerializer");
properties.put("value.serializer", "org.apache.kafka.common.serialization.StringSerializer");
3、消费者接受消息
消费者代码示例如下(Kafka 只提供拉取的方式)
public class HelloKafkaConsumer {
public static void main(String[] args) {
//TODO 消费者三个属性必须指定(broker地址清单、key和value的反序列化器)
Properties properties = new Properties();
properties.put("bootstrap.servers","127.0.0.1:9092");
properties.put("key.deserializer", StringDeserializer.class);
properties.put("value.deserializer", StringDeserializer.class);
//TODO 群组并非完全必须
properties.put(ConsumerConfig.GROUP_ID_CONFIG,"test1");
KafkaConsumer<String,String> consumer = new KafkaConsumer<String, String>(properties);
try {
//TODO 消费者订阅主题(可以多个)
consumer.subscribe(Collections.singletonList(BusiConst.HELLO_TOPIC));
while(true){
//TODO 拉取(新版本)
ConsumerRecords<String, String> records = consumer.poll(Duration.ofMillis(500));
for(ConsumerRecord<String, String> record:records){
System.out.println(String.format("topic:%s,分区:%d,偏移量:%d," + "key:%s,value:%s",record.topic(),record.partition(),
record.offset(),record.key(),record.value()));
//do my work
//打包任务投入线程池
}
}
} finally {
consumer.close();
}
}
}
必选参数:
bootstrap.servers、key.serializer、value.serializer含义同生产者
group.id:
并非完全必需,它指定了消费者属于哪一个群组,但是创建不属于任何一个群组的消费者并没有问题。
参见代码,模块kafka-no-spring下包hellokafka中,新版本特点:poll(Duration)这个版本修改了这样的设计,会把元数据获取也计入整个超时时间(更加的合理)。
public static void main(String[] args) {
/*消费配置的实例*/
Properties properties = KafkaConst.consumerConfig("groupC",StringDes