【排序】归并排序利用插入排序优化

归并排序利用插入排序优化


对于归并排序的优化,除了采用一次性内存分配策略外,还可以对小规模数组采用插入排序以提高效率。

相比较而言,插入排序的原地、迭代实现的性质使得其对于小规模数组的排序更具优势。那么,一个值得思考的问题是,当子问题规模为多大时,适合采用插入排序?

考虑一个理想化的模型:有n/k个具有k个元素的列表,我们需要对每个列表采用插入排序,再利用标准合并过程完成整个排序。那么我们可以得到如下的分析:

(0) 对每个列表排序的最坏时间是Θ(k2),则n/k个列表需要Θ(nk)的渐进时间。

(1) 合并这些列表需要Θ(nlog(n/k))的时间:最初合并n/k个规模为k的列表需要 cn/k * k = Θ(n),再利用数学归纳法可证每次合并都需要Θ(n),并且需要log(n/k)次合并。或者也可以通过递归树尽心分析。

(2) 总时间为Θ(nk+nlog(n/k)),我们可以利用这个总渐进时间,导出k取值的界

由反证法可以得到,k的阶取值不能大于Θ(logn),并且这个界可以保证插排优化的渐进时间不会慢于原始归并排序。

由于对数函数的增长特点,结合实际排序规模,k得实际取值一般在10~20间。

在归并中利用插入排序不仅可以减少递归次数,还可以减少内存分配次数(针对于原始版本)。

为了比较实际效果,我分别写了四个版本的代码,分别对应:原始版本, 插排优化, 内存分配策略优化, 内存分配策略+插排优化。并且对1000W和1亿个随机数进行了测试,得到了如下结果

考虑到数据规模,插排优化的k的取值为20。N/A表示未进行测试。

对于1000W的规模,优化版本的时间均可以控制在5S内,而原始版本需要40S+。并且优化内存分配策略的版本效率比起插排优化有微弱的优势。

对于1亿的数据规模(我放弃了测试原版性能,因为时间真的太长了…),内存分配的优化比起插入排序要更加明显,而结合二者的优化也只比前者快了几秒。

另外,在1亿的数据规模测试中,我试探性地把k从20调到了25,发现对于同时采用插排优化和内存优化测了的版本基本上只快了1S。

所以可以预见的是,对于更大规模的数据,动态内存分配是一个很大的瓶颈,我们可以稍稍计算下n个元素的合并需要多少次内存分配。

利用归纳可以很容易的算出:

也就是说,原始的归并排序对于n个元素需要Θ(n)的分配。这个瓶颈是很明显的。

上面的测试比起科学严谨还差一些,不过还是能够说明一些问题的。


  • 6
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值