在计算机科学中,时间复杂性,又称时间复杂度,算法的时间复杂度是一个函数,它定性描述该算法的运行时间。这是一个代表算法输入值的字符串的长度的函数。时间复杂度常用大O符号来表示,不包括这个函数的低阶项和首项系数。通俗易懂的说法是:计算程序运行的时间。
相同大小的不同输入值仍可能造成算法的运行时间不同,因此我们通常使用算法的最坏情况复杂度,记为T(n),定义为任何大小的输入n所需的最大运行时间。另一种较少使用的方法是平均情况复杂度,通常有特别指定才会使用。时间复杂度可以用函数T(n) 的自然特性加以分类,举例来说,有着T(n) =O(n) 的算法被称作“线性时间算法”;而T(n) =O(M^n) 和M= O(T(n)) ,其中M≥n> 1 的算法被称作“指数时间算法”。
个算法执行所耗费的时间,从理论上是不能算出来的,必须上机运行测试才能知道。但我们不可能也没有必要对每个算法都上机测试,只需知道哪个算法花费的时间多,哪个算法花费的时间少就可以了。并且一个算法花费的时间与算法中语句的执行次数成正比例,哪个算法中语句执行次数多,它花费时间就多。一个算法中的语句执行次数称为语句频度或时间频度。记为T(n)。
分类:
常量阶——————O(1)
线性阶——————O(n)
对数阶——————O(logn)
n方阶——————O(nⁿ)
指数阶——————O(2ⁿ)
阶乘阶——————O(n!)
线性对数阶——————O(nlogn)
举个简单的例子:
要计算该程序运行了多少次,应该拆分一步一步去解析。首先int i = 0;运行了1次;i < n;运行了n+1次、i++;运行了n次...以此类推,最后T(n)=3n+3,则该程序的时间复杂度为T(n)=n。
以下为时间复杂度的对比图(原图源于百度)