Kafka的高级消费者与低级消费者

Kafka的高级消费者与低级消费者

          在Kafka实战章节,我们写的例子都是Kafka的高级消费实例,可以看到在消息消费者的程序中,我们只需要指定zookeeper、及消费群组的groupId即可实现从消息队列中消费消息,屏蔽了大量的底层细节:如消息的偏移量等信息都不在程序中维护。Kafka的高级消费实例,满足以下几点规则:

(1)同一个消费群组中,如果线程数大于Topic分区数,那么一些线程永远接收不到消息;

(2)同一个消费群组中,如果线程数小于Topic分区数,部分线程将从多个分区接收消息;

(3)对于从多个分区接收消息的线程,消费每个分区内的消息是有序的,但消费多个分区之间的消息是无序的;

        明白了Kafka的高级消费实例的过程之后,如果我们想进一步控制一个消费者消费哪个分区怎么办呢?比如多次读取同一个消息。答案是使用低级消费者实例,即在程序中指定Topic的Partition的Leader broker,并在程序中跟踪消息的偏移量offset值。其步骤大致如下:

(1)指定消费Topic Partition的Leader broker及备份broker;

(2)构造并发送请求数据;

(3)处理leader broker的变更;

        实例如下:

[java]  view plain  copy
  1. import kafka.api.FetchRequest;  
  2. import kafka.api.FetchRequestBuilder;  
  3. import kafka.api.PartitionOffsetRequestInfo;  
  4. import kafka.common.ErrorMapping;  
  5. import kafka.common.TopicAndPartition;  
  6. import kafka.javaapi.*;  
  7. import kafka.javaapi.consumer.SimpleConsumer;  
  8. import kafka.message.MessageAndOffset;  
  9.   
  10. import java.nio.ByteBuffer;  
  11. import java.util.ArrayList;  
  12. import java.util.Collections;  
  13. import java.util.HashMap;  
  14. import java.util.List;  
  15. import java.util.Map;  
  16.   
  17. public class SimpleConsumerDemo {  
  18.     private List<String> m_replicaBrokers = new ArrayList<>();  
  19.   
  20.     public SimpleConsumerDemo(){  
  21.         m_replicaBrokers = new ArrayList<>();  
  22.     }  
  23.   
  24.     public void run(long a_maxReads, String a_topic, int a_partition, List<String> a_seedBrokers, int a_port) throws Exception {  
  25.         // find the meta data about the topic and partition we are interested in  
  26.         //  
  27.         PartitionMetadata metadata = findLeader(a_seedBrokers, a_port, a_topic, a_partition);  
  28.         if (metadata == null) {  
  29.             System.out.println("Can't find metadata for Topic and Partition. Exiting");  
  30.             return;  
  31.         }  
  32.         if (metadata.leader() == null) {  
  33.             System.out.println("Can't find Leader for Topic and Partition. Exiting");  
  34.             return;  
  35.         }  
  36.         String leadBroker = metadata.leader().host();  
  37.         String clientName = "Client_" + a_topic + "_" + a_partition;  
  38.   
  39.         SimpleConsumer consumer = new SimpleConsumer(leadBroker, a_port, 10000064 * 1024, clientName);  
  40.         long readOffset = getLastOffset(consumer,a_topic, a_partition, kafka.api.OffsetRequest.EarliestTime(), clientName);  
  41.   
  42.         int numErrors = 0;  
  43.         while (a_maxReads > 0) {  
  44.             if (consumer == null) {  
  45.                 consumer = new SimpleConsumer(leadBroker, a_port, 10000064 * 1024, clientName);  
  46.             }  
  47.             FetchRequest req = new FetchRequestBuilder()  
  48.                     .clientId(clientName)  
  49.                     .addFetch(a_topic, a_partition, readOffset, 100000// Note: this fetchSize of 100000 might need to be increased if large batches are written to Kafka  
  50.                     .build();  
  51.             FetchResponse fetchResponse = consumer.fetch(req);  
  52.   
  53.             if (fetchResponse.hasError()) {  
  54.                 numErrors++;  
  55.                 // Something went wrong!  
  56.                 short code = fetchResponse.errorCode(a_topic, a_partition);  
  57.                 System.out.println("Error fetching data from the Broker:" + leadBroker + " Reason: " + code);  
  58.                 if (numErrors > 5break;  
  59.                 if (code == ErrorMapping.OffsetOutOfRangeCode())  {  
  60.                     // We asked for an invalid offset. For simple case ask for the last element to reset  
  61.                     readOffset = getLastOffset(consumer,a_topic, a_partition, kafka.api.OffsetRequest.LatestTime(), clientName);  
  62.                     continue;  
  63.                 }  
  64.                 consumer.close();  
  65.                 consumer = null;  
  66.                 leadBroker = findNewLeader(leadBroker, a_topic, a_partition, a_port);  
  67.                 continue;  
  68.             }  
  69.             numErrors = 0;  
  70.   
  71.             long numRead = 0;  
  72.             for (MessageAndOffset messageAndOffset : fetchResponse.messageSet(a_topic, a_partition)) {  
  73.                 long currentOffset = messageAndOffset.offset();  
  74.                 if (currentOffset < readOffset) {  
  75.                     System.out.println("Found an old offset: " + currentOffset + " Expecting: " + readOffset);  
  76.                     continue;  
  77.                 }  
  78.                 readOffset = messageAndOffset.nextOffset();  
  79.                 ByteBuffer payload = messageAndOffset.message().payload();  
  80.   
  81.                 byte[] bytes = new byte[payload.limit()];  
  82.                 payload.get(bytes);  
  83.                 System.out.println(String.valueOf(messageAndOffset.offset()) + ": " + new String(bytes, "UTF-8"));  
  84.                 numRead++;  
  85.                 a_maxReads--;  
  86.             }  
  87.   
  88.             if (numRead == 0) {  
  89.                 try {  
  90.                     Thread.sleep(1000);  
  91.                 } catch (InterruptedException ie) {  
  92.                 }  
  93.             }  
  94.         }  
  95.         if (consumer != null) consumer.close();  
  96.     }  
  97.   
  98.     public static long getLastOffset(SimpleConsumer consumer, String topic, int partition,  
  99.                                      long whichTime, String clientName) {  
  100.         TopicAndPartition topicAndPartition = new TopicAndPartition(topic, partition);  
  101.         Map<TopicAndPartition, PartitionOffsetRequestInfo> requestInfo = new HashMap<TopicAndPartition, PartitionOffsetRequestInfo>();  
  102.         requestInfo.put(topicAndPartition, new PartitionOffsetRequestInfo(whichTime, 1));  
  103.         kafka.javaapi.OffsetRequest request = new kafka.javaapi.OffsetRequest(  
  104.                 requestInfo, kafka.api.OffsetRequest.CurrentVersion(), clientName);  
  105.         OffsetResponse response = consumer.getOffsetsBefore(request);  
  106.   
  107.         if (response.hasError()) {  
  108.             System.out.println("Error fetching data Offset Data the Broker. Reason: " + response.errorCode(topic, partition) );  
  109.             return 0;  
  110.         }  
  111.         long[] offsets = response.offsets(topic, partition);  
  112.         return offsets[0];  
  113.     }  
  114.   
  115.     private String findNewLeader(String a_oldLeader, String a_topic, int a_partition, int a_port) throws Exception {  
  116.         for (int i = 0; i < 3; i++) {  
  117.             boolean goToSleep = false;  
  118.             PartitionMetadata metadata = findLeader(m_replicaBrokers, a_port, a_topic, a_partition);  
  119.             if (metadata == null) {  
  120.                 goToSleep = true;  
  121.             } else if (metadata.leader() == null) {  
  122.                 goToSleep = true;  
  123.             } else if (a_oldLeader.equalsIgnoreCase(metadata.leader().host()) && i == 0) {  
  124.                 // first time through if the leader hasn't changed give ZooKeeper a second to recover  
  125.                 // second time, assume the broker did recover before failover, or it was a non-Broker issue  
  126.                 //  
  127.                 goToSleep = true;  
  128.             } else {  
  129.                 return metadata.leader().host();  
  130.             }  
  131.             if (goToSleep) {  
  132.                 try {  
  133.                     Thread.sleep(1000);  
  134.                 } catch (InterruptedException ie) {  
  135.                 }  
  136.             }  
  137.         }  
  138.         System.out.println("Unable to find new leader after Broker failure. Exiting");  
  139.         throw new Exception("Unable to find new leader after Broker failure. Exiting");  
  140.     }  
  141.   
  142.     private PartitionMetadata findLeader(List<String> a_seedBrokers, int a_port, String a_topic, int a_partition) {  
  143.         PartitionMetadata returnMetaData = null;  
  144.         loop:  
  145.         for (String seed : a_seedBrokers) {  
  146.             SimpleConsumer consumer = null;  
  147.             try {  
  148.                 consumer = new SimpleConsumer(seed, a_port, 10000064 * 1024"leaderLookup");  
  149.                 List<String> topics = Collections.singletonList(a_topic);  
  150.                 TopicMetadataRequest req = new TopicMetadataRequest(topics);  
  151.                 kafka.javaapi.TopicMetadataResponse resp = consumer.send(req);  
  152.   
  153.                 List<TopicMetadata> metaData = resp.topicsMetadata();  
  154.                 for (TopicMetadata item : metaData) {  
  155.                     for (PartitionMetadata part : item.partitionsMetadata()) {  
  156.                         if (part.partitionId() == a_partition) {  
  157.                             returnMetaData = part;  
  158.                             break loop;  
  159.                         }  
  160.                     }  
  161.                 }  
  162.             } catch (Exception e) {  
  163.                 System.out.println("Error communicating with Broker [" + seed + "] to find Leader for [" + a_topic  
  164.                         + ", " + a_partition + "] Reason: " + e);  
  165.             } finally {  
  166.                 if (consumer != null) consumer.close();  
  167.             }  
  168.         }  
  169.         if (returnMetaData != null) {  
  170.             m_replicaBrokers.clear();  
  171.             for (kafka.cluster.Broker replica : returnMetaData.replicas()) {  
  172.                 m_replicaBrokers.add(replica.host());  
  173.             }  
  174.         }  
  175.         return returnMetaData;  
  176.     }  
  177.   
  178.     public static void main(String args[]) {  
  179.         SimpleConsumerDemo example = new SimpleConsumerDemo();  
  180.         long maxReads = Long.parseLong(args[0]);  
  181.         String topic = args[1];  
  182.         int partition = Integer.parseInt(args[2]);  
  183.         List<String> seeds = new ArrayList<>();  
  184.         seeds.add(args[3]);  
  185.         int port = Integer.parseInt(args[4]);  
  186.         try {  
  187.             example.run(maxReads, topic, partition, seeds, port);  
  188.         } catch (Exception e) {  
  189.             System.out.println("Oops:" + e);  
  190.             e.printStackTrace();  
  191.         }  
  192.     }  
  193. }  

参考资料:

1、https://cwiki.apache.org/confluence/display/KAFKA/Index

2、http://www.nohup.cc/article/195/

3、http://blog.csdn.net/honglei915/article/details/37563647

4、http://orchome.com/11

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值