时间复杂度
和编程语言,编译器,计算机硬件无关,只考虑算法本身。
最终,在分析程序的运行时间时,最重要的是把程序看成是独立于程序设计语言的算法或一系列步骤。
与最高次的系数无关,与附加常数无关。
算法时间复杂度的定义:在进行算法分析时,语句总的执行次数T(n)是关于问题规模n的函数,进而分析T(n)随n的变化情况并确定T(n)的数量级。
整理了以下攻略:
用常数1取代运行时间中的所有加法常数。
在修改后的运行次数函数中,只保留最高阶项。
如果最高阶项存在且不是1,则去除与这个项相乘的常数。
得到的最后结果就是大O阶。
例:
int i = 1, n = 100;
while( i < n )
{
i = i * 2;
}
时间复杂度为O(logn)
int i, j, n = 100;
for( i=0; i < n; i++ )
{
for( j=i; j < n; j++ )
{
printf(“I love FishC.comn”);
}
}
n(n+1)/2 = n^2/2+n/2,最终得O(n^2)
int i, j;
for(i=0; i < n; i++)
{
function(i);
}
void function(int count)
{
printf(“%d”, count);
}
时间复杂度就是循环的次数O(n)。
常用的时间复杂度所耗费的时间从小到大依次是:O(1) < O(logn) < (n) < O(nlogn) < O(n^2) < O(n^3) < O(2^n) < O(n!) < O(n^n)
空间复杂度
算法的空间复杂度通过计算算法所需的存储空间实现,算法的空间复杂度的计算公式记作:S(n)=O(f(n)),其中,n为问题的规模,f(n)为语句关于n所占存储空间的函数。
显然对时间复杂度的追求更是属于算法的潮流!