Spark中决定Shuffle到哪个分区及Reduce个数的核心:HashPartitioner和RangePartitioner分区器

1、Spark的分区器:主要有HashPartitioner和RangePartitioner两种

  • 决定了RDD中每条数据经过Shuffle过程属于哪个分区;
  • 也决定了Reduce的个数。

(只有Key-Value类型的RDD才有分区的,非Key-Value类型的RDD分区的值是None的)

2、HashPartitioner

实现:对于给定的key,计算其hashCode,并除于分区的个数取余,如果余数小于0,则用余数+分区的个数,最后返回的值就是这个key所属的分区ID。

由于hashCode碰撞的存在,极端情况下可能会出现数据倾斜

3、RangePartitioner

如同其Ranger,划分出一个一个的范围,将符合其范围的数据预先Shuffer到指定的Range分区内,为保证每个分区中数据量的均匀,而且分区与分区之间是有序的(注意:元素接到进来是无序的,只是分区的大小是有序),也就是说一个分区中的元素肯定都是比另一个分区内的元素小或者大;但是分区内的元素是不能保证顺序的。简单的说就是将一定范围内的数映射到某一个分区内

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

pub.ryan

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值