我们先来做一个测试,判断以下两个算法A和B哪个更好?
假设两个算法的输入规模都是n,算法A要做2n+3次操作,
你可以这么理解:
先执行n次的循环, 执行完成后再有一个n次的循环,最后有3次运算。
算法B要做3n+1次操作,理解上,你觉得它们哪一个更快些呢?
在给大家解答问题之前,先给大家做个图表参考:
当n=1时,算法A1效率不如算法B1,
当n=2时,两者效率相同;
当n>2时,算法A1就开始优于算法B1了,随着n的继续增加,算法A1比算法B1逐步拉大差距。
所以总体上算法A1比算法B1优秀a
总结:给定两个函数f(n)和g(n),如果存在一个整数N,使得对于所有的n>N, f(n)总是比g(n)大,那么,我们说f(n)的增长渐近快于g(n)。
从刚才的对比中我们还发现,随着n的增大,后面的+3和+1其实是不影响最终的算法变化曲线的。
例如算法A2,B2 , 在图中他们压根儿被覆盖了。所以, 我们可以忽略这些加法常数。
第二个测试,算法C是4n+8,算法D是2n^2+1。
我们观察发现,哪怕去掉与n相乘的常数,两者的结果还是没有改变,算法C2的次数随着n的增长,还是远小于算法D2。
也就是说,与最高次项相乘的常数并不重要,也可以忽略。
我们再来看第三个测试,算法E是2n^2+3n+1,算法F是2n^3+3n+1。
我们进行最后一个小测试
算法G是2n^2,算法H是3n+1, 算法I是2n^2+3n+1。
这组数据我们看得很清楚,当n的值变得非常大的时候, 3n+1已经没法和2n^2的结果相比较,最终几乎可以忽略不计。
而算法G在跟算法工基本已经重合了。
于是我们可以得到这样一个结论,判断一个算法的效率时,函数中的常数和其他次要项常常可以忽略,而更应该关注主项(最高项)的阶数。
注意,判断一个算法好不好,我们只通过少量的数据是不能做出准确判断的,很容易以偏概全。