之前我介绍了大O时间复杂度的由来和表示方式(算法时间复杂度分析(一)), 最后介绍了几个分析大O时间复杂度的简单规则。这一篇介绍一些平时开发中经常会遇到的时间复杂度。
在我们实际开发过程中,我们去实现某一个需求的代码或者算法千差万别,但是如果总结一下这千万种算法的时间复杂度,其实无外乎就是以下几种
O(1)
首先你必须明确一个概念,O(1) 只是常量级时间复杂度的一种表示方法,并不是指只执行了一行代码。
比如以下这段代码,即便有 3 行,它的时间复杂度也是 O(1),而不是 O(3)。
1 int sum(int n) {
2 int i = n * 10;
3 int j = n * 20;
4 int k = i + j;
5 return k;
6 }
还记得时间复杂度的定义吗?它表示代码执行时间随数据规模增长的变化趋势。上述代码不管输入的 n 多大,第2、3、4行代码的执行时间永远是固定的。也就是说, 只要代码的执行时间不随 n 的增大而增长,这样代码的时间复杂度我们都记作 O(1)。
一般情况下,只要算法中不存在循环语句、递归语句,即使有成千上万行的代码,其时间复杂度也是Ο(1)。
除此之外,一些常见的数据结构的操作复杂度也是O(1)。比如,数组根据下标随机访问array[0]、HashTable的查找操作时间复杂度都是O(1)。
int[] array = new int[100];
public void test() {
int i = array[0];
int j = array[1];
int k = array[2];
}
test
方法中虽然执行了3行代码,并且分别从数组中取值。但是因为数组的随机访问复杂度为O(1), 所以 test 方法的时间复杂度还是O(1)。
O(n)
如果将刚才访问数组的代码改成如下
1int[] array;
2/**
3 * 返回数组中值为value的下标
4 */
5public int test(int value) {
6 int index = -1;
7 for (int i = 0; i < array.length; i++) {
8 if(array[i] == value) {
9 index = i;
10 }
11 }
12 return index;
13}
上面的代码中是在数组中查找是否存在value的数值,如果存在返回所对应的下标。因为这段代码的运行时间是随之数组的规模增大而增大,并且执行的次数就是数组的长度。所以此时的时间复杂度为O(n)。
O(logn)、O(nlogn)
对数阶时间复杂度非常常见,同时也是最难分析的一种时间复杂度。我通过一个例子来说明一下。
1i=1;
2while (i <= n) {
3 i = i * 2;
4}
根据我们前面讲的复杂度分析方法,第三行代码是循环执行次数最多的。所以,我们只要能计算出这行代码被执行了多少次,就能知道整段代码的时间复杂度。
从代码中可以看出,变量 i 的值从 1 开始取,每循环一次就乘以 2。当大于 n 时,循环结束。还记得我们高中学过的等比数列吗?实际上,变量 i 的取值就是一个等比数列。如果我把它一个一个列出来,就应该是这个样子的:
所以,我们只要知道 x 值是多少,就知道这行代码执行的次数了。
所以,这段代码的时间复杂度就是 O(log2n)。
现在,我把代码稍微改下,你再看看,这段代码的时间复杂度是多少?
1 i=1;
2 while (i <= n) {
3 i = i * 3;
4 }
根据我刚刚讲的思路,很简单就能看出来,这段代码的时间复杂度为O(log3n)
。
实际上,不管是以 2 为底、以 3 为底,还是以 10 为底,我们可以把所有对数阶的时间复杂度都记为 O(logn)。为什么呢?
我们知道,对数之间是可以互相转换的
所以 O(log3n) = O(C * log2n),其中 C=log32 是一个常量。基于我们前面的一个理论:在采用大 O 标记复杂度的时候,可以忽略系数,即 O(Cf(n)) = O(f(n))。所以,O(log2n) 就等于 O(log3n)。因此,在对数阶时间复杂度的表示方法里,我们忽略对数的“底”,统一表示为 O(logn)。
如果你理解了我前面讲的 O(logn),那 O(nlogn) 就很容易理解了。还记得我们刚讲的乘法法则吗?如果一段代码的时间复杂度是 O(logn),我们循环执行 n 遍,时间复杂度就是 O(nlogn) 了。而且,O(nlogn) 也是一种非常常见的算法时间复杂度。比如,归并排序、快速排序的时间复杂度都是 O(nlogn)。
最经典的O(logN)复杂度应该就是二分查找(Binary Search)
而O(N * LogN)在很多排序算法中比较常见,比如合并排序,快速排序等
O(m+n)、O(m*n)
我们再来讲一种跟前面都不一样的时间复杂度,代码的复杂度由两个数据的规模来决定。老规矩,先看代码!
1int cal(int m, int n) {
2 int sum_1 = 0;
3 int i = 1;
4 for (; i < m; ++i) {
5 sum_1 = sum_1 + i;
6 }
7 int sum_2 = 0;
8 int j = 1;
9 for (; j < n; ++j) {
10 sum_2 = sum_2 + j;
11 }
12 return sum_1 + sum_2;
13}
从代码中可以看出,m 和 n 是表示两个数据规模。我们无法事先评估 m 和 n 谁的量级大,所以我们在表示复杂度的时候,就不能简单地利用加法法则,省略掉其中一个。所以,上面代码的时间复杂度就是 O(m+n)。
针对这种情况,原来的加法法则就不正确了,我们需要将加法规则改为:T1(m) + T2(n) = O(f(m) + g(n))。但是乘法法则继续有效:T1(m)*T2(n) = O(f(m) * f(n))。
内容小结
基础复杂度分析的知识到此就讲完了,我们来总结一下。复杂度也叫渐进复杂度,用来分析算法执行效率与数据规模之间的增长关系,可以粗略地表示,越高阶复杂度的算法,执行效率越低。常见的复杂度并不多,从低阶到高阶有:O(1)、O(logn)、O(n)、O(nlogn)、O(n2)。等你学完整个系列之后,你就会发现几乎所有的数据结构和算法的复杂度都跑不出这几个。