基础概念
算法是计算机领域里,一系列程序与指令,用来处理特定的运算和逻辑问题。
同一个需求,算法有千百种的解法,而衡量一个算法是否高效,其主要标准就是:时间复杂度与空间复杂度。
那么什么是时间复杂度和空间复杂度呢?
举个例子
时间复杂度:
小A和小B通过自己代码实现了同一个需求,小A的代码耗时10秒
,而小B的代码耗时100秒
,这就说明小A的代码在时间复杂度上要优于小B的代码,因为耗时更短。
空间复杂度:
小A和小B通过自己代码实现了同一个需求,小A的代码需要消耗10MB
内存,而小B的代码需要消耗100MB
内存,这就说明小A的代码在空间复杂度上要优于小B的代码,因为占用内存更少。
衍生出的问题
那么有的小伙伴可能要问了,如果小A的代码耗时10秒
,但是内存占用100M
,而小B的代码耗时100秒
,内存占用只有10M
,这样的情况应该如何选择。
首先这种情况是有可能出现的,小A通过放弃内存占用,提高了运行效率,这就是我们平时所说的空间换时间
;而小B通过放弃了运行效率,减少了内存占用,这就是我们平时所说的时间换空间
。
具体选择哪种方案通常需要根据实际的软硬件情况来做决定。
那么在程序执行之前,有没有办法可以判断算法的耗时和内存占用呢?
这一节,我们先从时间复杂度来分析。
时间复杂度
实际上,在程序没有被执行之前,我们很难对算法的耗时和内存占用有一个具体的统计,但是可以预估算法的基本操作执行次数
,记为T(n)
。
基本操作执行次数
根据不同的代码结构,大体可以分为4类,常量为执行基本操作的次数:
线性: T(n)=常量*n
对数: T(n)=常量*logn
常量: T(n)=常量
多项式:T(n)=常量*n^2 + 常量*n
有了T(n)以后,是否就可以准确预估代码的耗时和内存占用了呢?
实际上,有了T(n)以后,依旧存在偏差的情况,比如代码A为T(n)=100n,代码B为T(n)=5n^2,这2段代码谁的运行时间更长呢?答案并不是绝对的,这就要看n的大小了,n的变化也会对这2段代码执行时间的长短产生影响。
渐进时间复杂度
为了填补T(n)的不足,在万众瞩目中,渐进时间复杂度
闪亮登场。
标准定义如下:
若存在函数f(n)
,使得当n
趋近于无穷大时,T(n)/f(n)
的极限值未不等于0的常数,则称f(n)
为T(n)
的同数量级函数。记作T(n)=O(f(n))
,称为O(f(n))
,O
为算法的渐进时间复杂度
,简称为时间复杂度
。
因为渐进时间复杂度用大写的O
来表示,所以也叫大O表示法
。
是不是感觉看不明白?没关系,知道怎么用就行,接着看。
我们在计算时间复杂度的时候,通常需要遵循3个基本原则:
- 如果运行时间是常数量级,则用常数1表示
- 只保留时间函数中的最高阶项
- 如果最高阶项存在,则省去最高阶项前面的系数
举个例子
线性:T(n) = 3n
最高阶项为3n,省去系数3,转化为时间复杂度则为:T(n) = O(n)
对数:T(n) = 5logn
最高阶项为5logn,省去系数5,转化为时间复杂度则为:T(n) = O(logn)
常量:T(n) = 3
只有常数量级,转化为时间复杂度则为:T(n) = 1
多项式:T(n) = 4n^2 + 4n
最高阶项为4n^2,省去系数4,只保留最高阶项,转化为时间复杂度则为:T(n) = O(n^2)
总结
那么刚才这4种时间复杂度的算法,究竟谁的执行时间更长,谁的执行时间更短呢?
我们假设当n的取值足够大
时,可以得出以下结论:
O(1)
< O(logn)
< O(n)
< O(n^2)
于是,我们通过计算时间复杂度的基本原则,在程序执行之前就可以完成时间复杂度的估算,从而挑选出最适合的算法。
高效的算法可以为程序的执行效率带来巨大的好处,当n的值越大的时候就越明显(当然如果需求里明确n的值不需要那么大,可另做判断)。
想要学好算法,理解时间复杂度的概念是必不可少的。
今天就到这,下一节主要讲空间复杂度。