算法意味着解决问题需求的思路或步骤,身为有追求的程序员,算法的基础还是需要具有的,即使没有也可以针对性的去多学习学习,哈哈,我就是这样想的。算法不仅能解决问题需求,也可以散发思维和寻找问题的不同解。话不多说,这篇重点梳理算法的复杂度。
1、算法复杂度
我们知道,对同一个问题可能有成百上千种的不同解法,然而哪种解决方法是最优的选择呢?这就需要从算法占有的时间复杂度和空间复杂度去衡量:
- 时间复杂度:执行当前算法所消耗的时间。
- 空间复杂度:执行当前算法需要占用的内存空间大小。
2、时间复杂度
通常使用大 O 表示法标记时间复杂度,公式为:
T(n) = O(f(n))
O 表示 f(n) 受限于 T(n) ,也就是说,算法执行需要的时间 T(n) 随着 f(n) 变化。
举个简单的例子,有一个需要执行 n 次的 for 循环,执行消耗的时间会随着 n 值变化,那么它的时间复杂度则是 O(n);如果两层 for 循环的话则是n*n,那么时间复杂度就是 O(n^2);以此类推,n 层 for 循环的话时间复杂度就是 O(n^n) 了。
时间复杂度,常见的级别有:O(1)、O(log n)、O(n)、O(n log n)、O(n^2)、O(2^n)、O(n!) 等,如图所示:
我对这些级别的理解是,假如计划执行特定任务的频率是1s/次的话:
- O(1):意味着执行要消耗1秒,属于常数阶;
- O(n):意味着执行要消耗n秒,属于线性阶;
- O(n log n):意味着执行要消耗n*logn秒,属于对数阶;
- O(n!):意味着执行要消耗n的阶乘次*1秒,O(n!)这种阶乘阶的时间复杂度是很可怕的!
当然了,还有一些高级的时间复杂度。比如:递归算法的时间复杂度、最好情况时间复杂度、最坏情况时间复杂度、平均时间复杂度、均摊时间复杂度。
递归算法的时间复杂度:通常与递归深度 depth 有关,总体时间复杂度为 O(T*depth)。比如递归求和,时间复杂度属于常数阶 O(1),然而要递归调用 n 次,所以最终时间复杂度为 O(n);又比如二分查找算法需要 log2^n 次,其时间复杂度为 O(logn) ;难度更大的是计算动态的递归调用次数(深度),比如归并排序算法中,每层的遍历数据量是 O(n) 级别,但它递归的深度并不是 n 层,还要考虑树的每一层数据规模都是在缩减的,即归并排序是 log n 层而不是 n 层,所以完成并归排序的话最终时间复杂度为 O(nlogn)。
最好/最坏情况时间复杂度:比如一个长度为10的数组 arr,我要寻找目标元素的位置,最好的情况当然是 arr[0] 就能取到,用时最短,而最坏的情况会在最后一次取到,即 arr[9],用时最长。
平均时间复杂度:一般情况下,出现最好/最坏情况的概率比较小,它反映不了执行消耗时间的平均水平,因此需要用在所有情况下执行次数的加权平均值表示,但平均情况下,本质上时间复杂度还是O(n)。
均摊时间复杂度:适合动态操作的情况,比如数组或 Map 等结构的动态扩容,初始化时都会给定一个固定长度的数组,当数组满或者达到设定阈值时则会触发扩容操作,原始数组插入 n 个元素需要耗时 n 秒,时间复杂度是O(1),扩容时插入一个元素前还需要移动之前的元素,所以扩容后插入一个元素的时间复杂度也是 O(1),整体上也就是 O(1) 了。
3、空间复杂度
空间复杂度考虑的是程序运行时内存占用情况,借助空间复杂度,可以对内存进行一个预估并分配合理的空间,程序占用内存空间的情况主要有:
- 静态空间:比如常量数据、指令等,这部分空间的大小是固定的,与输入/输出的数据个数多少/数值无关。
- 动态空间:主要包括动态分配的空间、递归栈所需的空间等,这部分的空间大小与算法有关。
因此,空间复杂度考虑的是程序运行时额外分配的那部分空间,空间复杂度使用大 S 表示法,公式为:
S(n) = O(f(n))
比如,常见的数据结构(二叉树,平衡二叉树,红黑树等)都是从空间复杂度角度,考虑优化内存占用的。
最后
当然,对于一个算法而言,时间复杂度和空间复杂度是相互影响的,也就是所谓的“用时间换空间还是用空间换时间”的说法。因此,对于常见算法的时间复杂度和空间复杂度,在使用时要注意平衡二者的影响,之前的一篇总结过排序算法,可以参考学习和使用。