前言:
算法的分析方式有两种:
- 事后分析统计方法:编写算法对应程序,统计其执行时间。
存在问题:编写程序的语言不同,执行程序的环境不同等因素 - 事前估算分析方法:撇开上述因素,认为算法的执行时间是问题规模n的函数。
所以我们引入了时间复杂度的概念来对算法进行分析
分析算法的执行时间
求出算法所有原操作的执行次数(也称为频度),它是问题规模n的函数,用 T(n) 表示。
算法执行大致时间 = 原操作所需的时间 * T(n)
所以算法的执行时间与 T(n) 成正比
为此用 T(n) 表示算法的执行时间
频度的计算
先来看一段代码
for (i = 0; i < n; i++) { //语句 1 频度为 n+1
for (j = 0; j < n; j++) { //语句 2 频度为 n*(n+1)
c[i][j] = 0; //语句 3 频度为 n*n
for (k = 0; k < n; k++) //语句 4 频度为 n*n*(n+1)
c[i][j] = c[i][j] + a[i][k] * b[k][j]; //语句 5 频度为 n*n*n
}
}
来解释一下,每个语句的频度
语句1:
不看内循环,单独看语句 1 ,当i范围在 [0,n-1] 时,它执行了n次,i=n时还执行了一次(判断后跳出循环),所以是n+1次。
语句2:
一样,不看 内循环 和 外循环,单独看语句2,语句2执行了n+1次 ,再看外循环,也就是语句1 循环了 n 次(频度是n+1,但是 循环次数并不是n+1次) 所以语句2 的频度为 n*(n+1)
语句3:
不看外循环,执行一次,再看外循环,执行n*n次 故 频度为n²
语句4和语句5的频度就不做解释了
得出这个段代码的 频数之和为
T(n) = 2n³ + 3n² + 2n + 1
算法的执行时间用时间复杂度来表示
T(n) = O(f(n))
记号“O”读作“大O”,它表示随问题规模n的增大算法执行时
间的增长率和f(n)的增长率相同。
T(n)= O(f(n))表示存在一个正的常数M,使得当n≥n0时都满足:
| T(n) | ≤ M | f(n) |
f(n)是 T(n)的上界
这种上界可能很多,通常取最接近的上界,即紧凑上界
大致情况:lim n->∞ T(n) / f(n) = M
是不是觉得很啰嗦,怎么涉及到这种概念 ,没事 看不懂也没事,其实,只要求出T(n) 的最高阶就行了 忽略其他低阶项和常系数
例如
T(n) = 2n³ + 3n² + 2n + 1 = O(n³)
T(n) =2n² + 2n + 1 = O(n²)
T(n) = n + 1 = O(n)
T(n) = 1 = O(1)
一个没有循环的算法的执行时间与问题规模n无关,记作0(1),也称作常数阶。
一个只有一重循环的算法的执行时间与问题规模n的增长呈线性增大关系,记作O(n),也称线性阶。
其余常用的算法时间复杂度还有平方阶O(n²)、 立方阶O(n³)、 对数阶O(log2n)、指数阶O(2^n)等。
对数阶的例子:
int i = 1;
while(i<n)
{
i = i*2;
}
执行次数为x次
2^x = n
则 x = log 2 n
时间复杂度为O(log2n)
指数阶的例子
int aFunc(int n) {
if (n <= 1)
return 1;
else
return aFunc(n - 1) + aFunc(n - 2);
}
显然运行次数,T(0) = T(1) = 1,同时 T(n) = T(n - 1) + T(n - 2) + 1,这里的 1 是其中的加法算一次执行。显然 T(n) = T(n - 1) + T(n - 2) 是一个斐波那契数列,通过归纳证明法可以证明,当 n >= 1 时 T(n) < (5/3)^n,同时当 n > 4 时 T(n) >= (3/2)^n。所以该方法的时间复杂度可以表示为 O((5/3)^n),简化后为 O(2^n)。
常用的时间复杂度所耗费的时间从小到大依次是
O(1 )< O(logn) < O(n) < O(n*logn) < O(n^2) < O(n^3) < O(2^n) < O(n!) < O(n^n)