SparkStreaming+Kafka(spark 1.6)

Note:spark1.6版本,kafka版本要是0.8.21

咳咳,pom文件自己去配

代码示例:

def main(args:Array[String]):Uint={

val conf=new SparkConf().setAppName("test) //在集群中运行可以不指定master

val sc=new SparkContext(conf)

// 定义topic

val topic=Set("callcentor") //callcentor为topic的名称

//定义bootstraps

val bootstraps="localhost:9092" //我是在集群单机版测试的,localhost 可以改成对应的地址

//定义kafka参数

val kafkaparams=Map[String,String](

"bootstrap.servers"->bootstraps,

"groupid"->"test",//消费者组的名字

"auto.offset.reset"->"smallest" //从最小的offset可以取

"key.deserializer"->"org.apache.kafka.common.serialization.StringDeserializer",

"value.deserializer"->"org.apache.kafka.com

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值