算法的时间复杂度
- 算法的时间复杂度
:在进行算法分析时,语句总的执行次数T(n)是关于问题
n的函数,进而分析T(n)随n的变化情况并确定T(n)的数量级。算法的时间复杂度,也就是算法的时间度量,记:T(n)=O(f(n))。他表示随问题n的增加,算法执行时间的增长率和f(n)的增长率相同,f(n)是问题规模的某个函数。
一般情况:随着输入规模n的增加,T(n)增加最慢的算法为最优算法。一般表示法:O(1) O(n) O(n2)等等
那么如何分析一个算法的时间复杂度呢?即如何推导出大O阶呢,整理如下:
–用常数1代替运行时间中的所有加法常数,例如:某个算法运行时间是1+1+1则认为是常数1表示O(1),常数都用1来代替。
–在修改后的运行函数中,只保留最高阶
–如果最高阶存在且不唯1,则去除与这个项相乘的常数
–得到的结果就是大O阶
线性阶
一般含有非嵌套循环涉及线性阶,线性阶就是随着问题规模n的扩大,对应计算次数呈直线增长。
平方阶
一般含有嵌套循环涉及平方阶,也就是说有两个for循环。