spark streaming参数调优

应用spark streaming的时候,可以在spark UI页面监控spark streaming的运行,UI页面有一个Streaming选项卡,展示如下:
在这里插入图片描述

里面有四个选项,分别是input rate,,scheduling delay,processing time和total delay,其中input rate下有一个该应用所使用的输入流的方法,这里是使用的kafkaUtil的direct stream。

  • input rate:即从数据源中接收数据的速率。
  • scheduling delay:即一个batch在等待前一个batch处理完成前在队列中所等待的时间。
  • processing time:数据的处理时间,即从接收到数据开始并进行数据转换存储操作的整个过程所使用的的时间
  • total delay:即schedule delay + processing time所使用的的时间

1.1 input rate参数调整

如果kafka中含有大量未被消费的数据,在刚启动spark streaming的时候会有大量数据涌入(特别在使用kafkaUtilcreateStream方法的时候,createStream中的receiver会直接把数据接收过来放入内存),如果不限制接受速率,内存可能无法放下所有数据从而造成OOM。在streaming窗口中数据的处理用时超过窗口的区间时间ÿ

  • 2
    点赞
  • 15
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值