算法的时间复杂度
时间频度
时间频度:一个算法花费的时间与算法中语句的执行次数成正比例,那个算法中语句的执行次数多,它花费时间就多。一个算法中的语句执行次数称为语句频度或时间频度即为 T(n)
时间复杂度
1)一般情况下,算法中的基本操作语句的重复执行次数是问题规模n的某个函数,用T(n)表示,若某个辅助函数f(n),使得当n趋近于无穷大时,T(n)/f(n)的极限值为不等于零的常数,则称f(n)是T(n)的同数量级的函数。基座T(n)=O(f(n)),称O(f(n))为算法的渐进时间复杂度,简称时间复杂度。
2)T(n)不同,但时间复杂度可能相同。入:T(n)=n2+7n+6与T(n)=3n2+2n+2他们的T(n)不同。但时间复杂度相同,都为O(n^2)
3)时间复杂度的计算方法
- 用常数1代替运行时间中的所有加法常数
- 修改后的运行次数函数中,只保留最高阶项
- 去除最高阶项的系数
常见的时间复杂度
- 常数阶 O(1)
- 对数阶 O(log2N)
- 线性阶 O(n)
- 线性对数阶 O(nlog2n)
- 平方阶 O(n^2)
- 立方阶 O(n^3)
- k此房阶 O(n^k)
- 指数阶 O(2^n)
说明
- 常见的算法时间复杂度由小到大一次为:O(1)<O(log2n)<O(n)<O(nlog2n)<O(n2)<O(n3)<O(nk)<O(2n),随着问题规模的不断增大,上述时间复杂度不断增大。算法的执行效率越低
- 我们应该尽可能避免使用指数阶的算法
常数阶O(1)
无论执行了多少行,只要没有循环等复杂结构,那这个代码的时间复杂度就是O(1)
消耗的时间并不随某个变量的增长而增长,那么无论这类代码有多长,即使有几万几十万行,都可以用O(1)来表示它的时间复杂度
int i =1;
int j = 2;
++i;
j++;
对数阶O(log2n)
int i = 1;
while(i<n){
i = i*2;
}
说明:在while循环里面,每次都将i乘以2,成晚以后,i距离n就越来越近了。假设循环n此后,i就大于2了,此时这个循环就退出了,也就是谁2的x次方大于等于n,那么x=log2n也就是说当循环log2n次以后,这个代码就结束了。因此这个代码的时间复杂度为O(log2n)。O(log2n)的这个2时间上是根据代码变化的,i=i*3,则就是O(log3n)
线性阶(O(n))
for(int i =1;i<=n;i++){
j = i;
j++
}
说明:这段代码,for循环里面的代码会执行n编,因此它消耗的时间随着n的变化而变化的,因此这类代码都可以用O(n)来表示它的时间复杂度
线性对数阶(O(nlog2n))
for(m=1;m<n;m++){
i=1;
while(i<n){
i=i*2;
}
}
说明:将时间复杂度为O(log2n)的代码循环N编的话,它的时间复杂度就是n*O(logN)
平方阶O(N^2)
for(x=1;i<=n;x++){
for(i=1;i<=n;i++){
j=i;
j++;
}
}
说明:平方阶O(n2)把O(n)的代码在循环一编,它的时间复杂度就是O(n2)。这段代码其实就是循环了两层n循环,它的时间复杂度就是O(n*n),即O(n^2),
立方阶(O(n^3)),K次方阶
参考上面的O(n2)去理解就该了,O(n3(相当于三层循环,其他的类似
平均时间复杂度和最坏时间复杂度
- 平均时间复杂度是指所有可能的输入实例均以等概率出现的情况下,该算法的运行时间
- 最坏的情况下的时间复杂度称为最坏时间复杂度。一般讨论的时间复杂度是算法在任何输入实例上运行时间的界限,这就保证了算法的运行时间不会比最坏情况更长
算法的空间复杂度
基本介绍
类似于时间复杂度的讨论,一个算法的空间复杂度定义为该算法所耗费的存储空间,它也是问题规模的函数
空间复杂度是对一个算法在运行过程中临时占用存储空间大小的度量。有的算法需要占用的临时工作单元数与解决问题的规模有关,它随着n的增大二增大,当n较大时,将占用较多的存储单元,例如快速排序和归并排序就属于这种情况
在做算法分析时,主要讨论的是时间复杂度。从用户使用体验上看,更看重的是程序执行的速度。一些缓存产品(redis,memcache)和算法(基数排序)本质上就是用空间换时间