对于数据倾斜的思考

在分部署的集群服务中,当涉及到数据的分区,分片的时候,不可避免的会涉及到数据倾斜的问题的。数据倾斜方案的设计对于整体系统性能的设计是存在一些性能方面的限制或者是风险的。
数据倾斜常见的集中场景。
1.kakfa中,大量的数据分发到对应的指定的某个分区上面,导致kafka的消费能力急剧降低;
方式一:kakfa底层存在相关的机制,对应的可以使用热balance机制来实现rebalance重平衡操作的。在重平衡期间,服务对外不提供服务的,存在一定的性能损耗。
方式二:kafka的分区操作的话,对应的存在相关的Partitioner接口的。我们可以自定义相关的Partitioner的信息的。默认的是使用如下的方式实现的
int nextValue = counter.getAndIncrement();
return DefaultPartitioner.toPositive(nextValue) % numPartitions;
我们可以自定义实现自己的分区策略的。这样的话,就可以使用随机数来解决相关的数据倾斜的问题的。
方法三:使用ProducerRecord,在创建的时候指定相关的随机分区也是可以实现问题的解决的。
2.spark处理任务的时候,数据发生严重的倾斜,对应的数据发送到了指定的一个或者是几个reduce中,当然也有可能是业务自身的问题,在特定的时间段,特定的业务的数据量会出现激增的操作,这个属于业务正常的情况;
方案一:对应的key中增加随机数,这样的话,可以达成随机的特性的,后续需要对key执行处理,消除原有数据中的随机数信息
方案二:增加伪列信息,后续的话,根据伪列实现自定义的分区操作,可以解决数据倾斜分区的

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值