基于Scala实现根据指定分区指定Offset开始消费Kafka的数据

一个很简单的测试Demo     这个topic数据是二进制格式,所以value的反序列化方式是 classOf[ByteArrayDeserializer].getName

import java.util
import java.util.Properties
import scala.collection.JavaConversions._
import org.apache.kafka.clients.consumer.KafkaConsumer
import org.apache.kafka.common.TopicPartition
import org.apache.kafka.common.serialization.{ByteArrayDeserializer, StringDeserializer}
/**
  * Create by 写scala的老刘 2019-05-10 16:15
  *
  */
object KafkaConsumerBeginning {
  def main(args: Array[String]): Unit = {
      val topic = "TestTopic"
    val consumerProp = new Properties();
    consumerProp.put("bootstrap.servers", "ip:端口")
    consumerProp.put("group.id", "test")
    consumerProp.put("enable.auto.commit", "false")
    consumerProp.put("auto.commit.interval.ms", "1000");
    consumerProp.put("key.deserializer", classOf[StringDeserializer].getName);
    consumerProp.put
  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值