消费kafka存放HBase

java代码

package com.zcl.demo;

import java.io.IOException;
import java.util.Arrays;
import java.util.Date;
import java.util.Properties;

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.hbase.util.Bytes;
import org.apache.kafka.clients.consumer.ConsumerRecord;
import org.apache.kafka.clients.consumer.ConsumerRecords;
import org.apache.kafka.clients.consumer.KafkaConsumer;

import com.google.protobuf.InvalidProtocolBufferException;
import com.htsc.octopus.protocol.StateEntry;
import com.zcl.utils.HBaseUtils;

/**
 * 消费指定分区的消息
 * @author 45335
 *.
 */
public class KafkaConsumerExample {
    
    public static void main(String[] args) {
        HBaseUtils hd = new HBaseUtils();
        Properties props = new Properties();
        String[] s = new String[]{"base","diskInfo","networkInfo"};
        try {
            hd.createTable("zcl", s);
        } catch (IOException e1) {
            e1.printStackTrace();
        }
        //设置brokerServer(kafka)ip地址:要读取的服务器地址
        props.put("bootstrap.servers","192.168.xxx.xx:9092");
        //group 代表一个消费组(test)(设置consumer group name)
        props.put("group.id", "test");
      //设置自动提交偏移量(offset),由auto.commit.interval.ms控制提交频率
        props.put("enable.auto.commit", "true");
        //偏移量(offset)提交频率
        props.put("auto.commit.interval.ms", "1000");
      //设置使用最开始的offset偏移量为该group.id的最早。如果不设置,则会是latest即该topic最新一个消息的offset//如果采用latest,消费者只能得道其启动后,生产者生产的消息
        //props.put("auto.offset.reset", "earliest");
        //30秒无连接自动结束会话
        props.put("session.timeout.ms", "30000");
        //序列化kv值
        props.put("key.deserializer", "org.apache.kafka.common.serialization.StringDeserializer");
        props.put("value.deserializer", "org.apache.kafka.common.serialization.ByteArrayDeserializer");
        
        //===================================================
        @SuppressWarnings("resource")
        KafkaConsumer<String, byte[]> consumer = new KafkaConsumer<String, byte[]>(props);
        // Kafka Consumer subscribes list of topics here.Kafka消费者在这里订阅主题列表
                consumer.subscribe(Arrays.asList("test"));
                while (true) {
                    ConsumerRecords<String, byte[]> records = consumer.poll(100);
                    for (ConsumerRecord<String, byte[]> record : records) {
                        if(record.key().equals("ProcessInfo")) {
                            System.out.println("ProcessInfo序列化========================");
                            try {
                                StateEntry.ProcessInfo bus =StateEntry.ProcessInfo.parseFrom(record.value());
                                //写入HBase
                                 //创建簇数组(三个簇)
//                                String[] s = new String[]{"base","diskInfo","networkInfo"};
                                try {
                                    //创建HBase表&#
  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值