package com.lyzx.kafka;
import org.apache.kafka.clients.consumer.ConsumerRecord;
import org.apache.kafka.clients.consumer.ConsumerRecords;
import org.apache.kafka.clients.consumer.KafkaConsumer;
import org.apache.kafka.clients.consumer.OffsetAndMetadata;
import org.apache.kafka.common.TopicPartition;
import org.junit.Test;
import java.util.*;
public class ConsumerTest {
private static String ips = "192.168.29.164:9092";
/**
* kafka consumer的基本使用
* 1、group.id 代表组名
* 2、auto.offset.reset 代表从什么地方开始消费
* earliest 从最早的位置开始消费,注意最早的位置不一定是0,这个最早的位置指上一次提交的位置
* 比如group1杀过一次offset=1000 那么这次就从1000开始读,可能此时的消息总数有5000
* latest 从最新的位置开始消费
* 比如消息总数有5000 那么这次就从5000开始读取
*
* max.poll.records 表示每次拉取的最大的数据条数
* consumer.poll(time) time表示poll方法最大的阻塞时间
* poll方法返回的前提
* 1、获取到了max.poll.records配置项的条数的记录
* 2、阻塞时间超过了time
《Kafka实战》之consumer的使用和手动管理offset
最新推荐文章于 2023-07-17 17:07:07 发布