算法的时间复杂度的定义:在进行算法分析时,语句总的执行次数T(n)是关于问题规模n的函数,进而分析T(n)随n的变化情况并确定T(n)的数量级。算法的时间复杂度就是算法时间量度,记作T(N)=O(f(n))。它表示随问题规模n的增大,算法执行时间的增长率和f(n)的增长率相同,称作算法的渐近时间复杂度,简称为时间复杂度。
这样用大写O()来体现算法时间复杂度的记法,我们称之为大O算法。
一般情况下,随着输入规模n的增大,T(n)增长最慢的算法称之为最优算法。
那么如何分析一个算法的复杂度呢?一般性的规则总结如下:
1)用常数1取代运行时间中的所有加法常数。
2)在修改后的运行次数函数中,只保留最高阶项
3)如果最高阶存在且不是1,则去除与这个项相乘的常数。
4)得到的最后结果就是大O阶
简单举个例子:
这部分的程序的效率时O(1),虽然有8个语句。
2、线性阶
这部分代码的执行效率时O(N),因为循环体重的次数需要执行n次。
3、平方阶
这部分代码为O(N^2)
【扩展】:
分析:当i = 0时,内循环执行n次;当i = 1时,内循环执行了n-1次......当i = n-1时,内循环执行了1次,所以总的执行时间为n+(n-1)+(n-2)+......+1 = n(n+1)/2。按照我们上面的规则,最后的大O阶为O(n^2)。
4、对数阶
分析:假设有x个2循环之后正好为n,即2^x= n,x = log(n),所以时间复杂度为O(logn)。
4、函数调用的时间复杂度分析
这里面有两个嵌套的循环,所以最后的时间复杂度为O(n^2)。
这里若是有不懂的地方,请看我上一篇博客,地址为:http://blog.csdn.net/zscfa/article/details/53236146点击打开链接
常用的时间复杂度所耗费时间从小到大一次是:
O(1)<O(logn)<O(n)<O(nlogn)<O(n^2)<O(n^3)<O(2^n)<O(n!)<O(n^n)
二、算法空间复杂度
写代码时,用空间来换取时间
比如说:判断那一年是否为闰年?除了用编算法来判断那一年是闰年之外,还可以建立一个2050 的数组,如果是闰年就置为1,不是就为0,这样就变成了去这个数组里找数组里保存的值是1还是0。
两种算法比起来,第一种算法明显很耗费CPU的时间,第二种算法虽然节省时间,但是建立了一个2050的数组,浪费了空间。
具体哪个算法好,要看具体情况,若是单片机的话,还是第一种算法比较好。