当我们分析算法的时间复杂度时,我们通常关注的是算法执行所需的时间与输入规模的增长之间的关系。这里我会简要介绍常见的时间复杂度:O(1)、O(n)、O(log n) 和 O(n log n),并进行对比。
O(1) - 常数时间复杂度:
表示算法的执行时间不受输入规模的影响,无论输入数据有多大,执行时间都是固定的。
示例:哈希算法等。
例子:哈希算法是典型的O(1)时间复杂度,无论数据规模多大,都可以在一次计算后找到目标(不考虑冲突的话)等。
O(n) - 线性时间复杂度:
表示算法的执行时间与输入规模成正比,随着输入规模的增加,执行时间线性增长(数据量增大几倍,耗时也增大几倍)。
示例:遍历算法等。
例子:冒泡排序,就是典型的O(n^2)的算法,对n个数排序,需要扫描n×n次。
O(log n) - 对数时间复杂度:
表示算法的执行时间与输入规模的对数成正比,随着输入规模的增加,执行时间增长缓慢(这里的log是以2为底的,比如,当数据增大256倍时,耗时只增大8倍,是比线性还要低的时间复杂度)。
示例:二分搜索等分治算法。
例子:二分查找是O(logn)的算法,每找一次排除一半的可能,256个数据中查找只要找8次就可以找到目标。。
O(n log n) - 线性对数时间复杂度:
表示算法的执行时间与输入规模和输入规模的对数之间成正比,随着输入规模的增加,执行时间增长较快(n乘以logn,当数据增大256倍时,耗时增大256*8=2048倍。这个复杂度高于线性低于平方)。
示例:快速排序、归并排序等分治算法。
例子:对数组进行快速排序、对链表进行归并排序等。
对比:
O(1) 是最快的,因为它的执行时间不受输入规模的影响。
O(log n) 在增长速度上比 O(n) 慢,而 O(n) 又比 O(n log n) 慢,因此它们之间的排序是 O(1) < O(log n) < O(n) < O(n log n)。
在实际应用中,O(1) 和 O(log n) 的算法通常被视为高效算法,而 O(n) 和 O(n log n) 的算法可能在大规模数据上表现不佳。