时间复杂度
定义
在进行算法分析时,语句总的执行次数T(n)是关于问题规模n的函数,进而分析T(n)随n的变化情况并确定T(n)的数量级。算法的时间复杂度,也就是算法的时间量度,记作:T(n)=O(f(n))。它表示随问题规模n的增大,算法执行时间的增长率和f(n)的增长率相同,称作算法的渐进时间复杂度,简称时间复杂度。其中f(n)是问题规模n的某个函数。
时间复杂度分析方法(大O法)
1.用常数1取代运行时间中的所有加法常数。
2.在修改后的运行次数函数中,只保留最高阶项。
3.如果最高阶项存在且不是1,则去除与这个项相乘的常数。
按以上三个步骤得到的结果就是大O阶的结果。
常数阶
定义:常数阶是指与问题大小(n)无关,执行时间恒定的算法。用O(1)进行表示。
比如
1 int sum=0,n=100; //执行一次
2 sum=(1+n)*n/2 //执行一次
3 printf("%d",sum); //执行一次
运行函数次数为3,按照大O法,用常数1取代运行时间中的所有加法常数,就会得到该算法的时间复杂度为O(1)。
另外:对于分支结构而言,无论是真还是假,执行的次数都是恒定的,不会随着n的变化发生变化,所以单纯的分支结构(不包括结循环结构),其复杂度也是O(1)。
线性阶
要确定算法的阶次,然后常常需要确定某个特定语句,或者说特定语句集运行的次数。因此要分析算法的复杂度,关键是要分析循环结构的运行情况
比如
for(int i=0;i<n;i++){
;}
因为统一语句执行了n次,所以时间复杂度为O(n)。
对数阶
定义:由2的n次方等于n,得到x=log2 n。所以简单对数阶的时间复杂度O(log2n)。一般会把2省略记为O(logn)。
比如,利用“二分思想”,求解2+4+8……时。
int i=1,cnt=0;
while (i<max)
{
i=i*2;
cnt+=2;
}
由于每次i 乘以2之后,就距离max更近了一分。也就是说,有多少个2相乘后大于n,则会退出循环。由2的n次方等于n,得到x=log2 n。所以这个循环时间复杂度O(logn)。
平方阶(以循环为例)
计算:循环的时间复杂度等于循环体的复杂度乘以该循环运行的次数
for(i=0;i<n;i++){
for(j=0;j<m;j++){
;
}
}
最深部的语句会执行 nm 次,所以这个循环的时间复杂度为O(NM)。一般情况下,会使用较大的数来代替较小的数,以达到粗略计算,若n>m,则记为O(N^2)。
最坏情况和平均情况
最坏情况:最坏情况运行时间是一种保证,那就是运行时间将不会再坏了,在应用中持续一种最重要的需求,通常除非特别指定我们提到的运行时间都是最坏情况的运行时间。
平均情况:平均运算时间是所有情况中最有意义的,因为它是期望的运行时间。
比如快速排序的时间复杂度:
最坏为O(n^2),平均为O(nlogn)。
最坏的情况下:退化为冒泡排序:
平均情况下:
T(n)=2*T(n/2)+n; 第一次划分
=2*(2*T(n/4)+n/2)+n; 第二次划分 (=2^2*T(n/4)+2*n)
=2*(2*(2*T(n/8)+n/4)+n/2)+n; 第三次划分(=2*3*T(n/8)+3*n)
=.....................
=2^m+m*n; 第m次划分
因为2^m=n,所以等价于 = n+m*n
所以m=logn,所以T(n)=n+n*logn;
空间复杂度
定义
空间复杂度:对一个算法在运行过程中临时占用存储空间大小的量度,记做S(n)=O(f(n))。n为问题的规模,其中f(n)是语句关于n所占的存储空间的某个函数。
一般而言“复杂度”多指时间复杂度