partition过程详解

partition 过程详解

介绍

给定一个数组arr,和一个数num, 请把小于等于num的数放在数
组的左边, 大于num的数放在数组的右边。要求额外空间复杂度O(1), 时间复杂度O(N)

简单来说 把一个数组 分成如下图

img01

思路如下:

  1. i当前 待考察元素.
    遍历数组的过程中,要保证 arr[0,j]<=num , arr[j+1,i-1]>num

其中 绿色部分 是小于等于num, 红色部分是大于num, 黄色部分 是不确定部分

img02
如果当前 i 位置的元素 大于 num , 直接考察下一个元素 即可 。 如果 当前的元素小于num 的时候,
就要把 当前位置的元素 的 j的下一个位置j+1 交换 , 同时 小于等于区域 要往后扩大一个位置,即j++
这样就可以保证了 以上的性质 arr[0,j]<=num 这个性质成立, arr[j+1,i-1]>num 也是成立的。

2.考虑初始值情况
一开始小于等于区域应该是没有 所以把j=-1,代表区域不存在。
img03

3.经过以上分析,其实只要看,arr[i]<=num,如果小于就要和 小于等于区域的下一个位置交换,同时小于等于区域扩大一个位置 。
img04


template<typename T>
int partition(T arr[], int n, int num) {

    int j;
    j = -1;
    //arr[0,j] <=num , arr[j+1,i) > num
    for (int i = 0; i < n; i++) {

        if (arr[i] <= num) {
            j++;
            swap(arr[i], arr[j]);

        } else {
            // arr[i] >num
            // do nothing
        }

    }
    return j;
}



测试一下

int main() {

    int arr[9] = {1, 2, 3, 4, 5, 9, 3, 8, 3};

    int num = 5;
    int p = partition(arr, 9, num);

    SortTestHelper::printArray(arr, 9);

    cout << "pov = " << p << ", num = " << num << endl;

    cout << "arr[0..pov]<=" << num << ", arr[pov+1,n]> " << num << endl;
    return 0;
}

结果如下:

1 2 3 4 5 3 3 8 9
pov = 6, num = 5
arr[0..pov]<=5, arr[pov+1,n]> 5

参考

完整代码 可以参考:

partition_demo

分享快乐,留住感动. 2020-01-23 23:57:19 --frank
  • 0
    点赞
  • 12
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: Spark分区是指将数据集划分为多个部分,以便在分布式计算中进行并行处理。每个分区都是独立的,可以在不同的节点上进行处理,从而提高计算效率。 Spark中的分区可以是基于哈希函数的分区,也可以是基于范围的分区。哈希分区是将数据集中的每个元素都映射到一个分区中,而范围分区是将数据集中的元素按照一定的顺序划分到不同的分区中。 分区的数量可以通过设置参数来控制,通常情况下,分区的数量应该与集群中的CPU核心数量相同或者是其倍数,以充分利用集群的计算资源。 在Spark中,分区是一个重要的概念,它可以影响到计算效率和数据处理的质量。因此,在进行Spark编程时,需要对分区有深入的了解,并根据实际情况进行合理的设置。 ### 回答2: Spark是一个分布式计算框架,在处理海量数据时,如何让数据分布在不同的节点上,以充分利用集群的资源并提高计算效率,这就需要对数据进行分区,而Spark分区就是为了实现这个目的。 Spark分区是数据在分布式集群中的一个重要概念,每个分区可以看作是集群中的一个节点,Spark读取或写入数据时,就是对分区进行操作。因此,Spark分区的划分能够显著影响Spark应用程序的性能。 Spark的分区通常有两种方式,一种是默认的哈希分区方式,另一种是根据开发者的需要自定义分区方式。 哈希分区方式是Spark默认的分区方式,通过对key进行哈希散列得到每个元素所在分区的编号。哈希分区具有高效性,在大多数情况下已经能够满足应用程序的需求。例如,如果使用reduceByKey()或sortByKey()等算子,Spark会自动使用哈希分区。 自定义分区方式可以根据应用程序的需求来配置分区。自定义分区需要实现Partitioner接口,实现其中的numPartitions()方法和getPartition()方法,前者是用于获取分区的数量,后者则是用于获取给定键的分区编号。自定义分区方式一般适用于具有特殊维度,并且存储数据需要在一起的数据场景。 Spark分区能够提高Spark的并行度,从而提高Spark应用程序的性能。如果分区数量太少,每个分区会包含大量的数据,那么在运行大规模任务时,就会出现瓶颈现象,影响任务的效率。因此,需要根据数据量和计算资源来确定分区数量,以充分发挥Spark的优势。 总的来说,Spark分区在大数据处理中扮演了重要的角色,能够提高应用程序的性能和扩展性。对于Spark开发者来说,选择合适的分区方式和确定合适的分区数量都是非常关键的。 ### 回答3: Spark分区是Spark处理数据时对数据进行划分的一种方式,分区后可以将数据分散在不同节点上并发处理,提高Spark运行效率。Spark分区是RDD中的一个重要概念,也是Spark中最为基础的技术之一。 Spark分区可以说是对RDD数据进行分段存储的一个操作,可以将RDD中的数据分成多个逻辑部分,并将这些部分分配到不同的机器节点上,以便于Spark的并行计算。每个分区相当于Spark中的一个小数据集,它们可以被独立地处理,而且可以同时在不同的机器节点上计算,从而实现真正的并行处理。 Spark的分区算法包括三种:Hash分区、Range分区和自定义分区。其中,Hash分区是Spark默认的分区算法,通过对数据进行哈希函数的运算,将数据随机分为n个分区。Range分区则是将数据按照键进行有序分区,可以在一定程度上减少Shuffle的复杂度和数据倾斜的问题。自定义分区则是用户可以根据自己的需求来自定义数据分区的方式和数量。 Spark分区可以通过repartition()和coalesce()两个操作来进行重新分区。其中,repartition()操作可以对数据进行哈希分区的重新分区,可以增加或减少数据分区的数量;coalesce()操作则可以对数据进行合并分区的重新分区,只能减少数据分区的数量。 Spark的分区数量并不是越多越好,一般来说,分区数量应该与集群的计算资源和数据量相适应,过多或过少的分区都会导致计算效率降低。为了保证Spark的最佳运行效率,我们一般需要根据数据量、访问模式、计算资源等条件来选择合适的分区数量和分区算法。 总之,Spark分区是Spark处理数据的一个重要技术,可以提高Spark程序的并发处理能力和计算效率,值得我们深入学习和掌握。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值