基本概念
- 算法:是解决某一特定问题求解步骤的描述,在计算机中表现为指令的有限序列,并且每条指令表示有一个或者多个操作。对于一个特定问题进行求解,可以使用不同的算法,或许最终结果是一样的,但在此过程中消耗的时间,占用的空间都有可能不同。
- 算法的特征:输入输出,有穷性,确定性,可行性。
- 算法的要求:正确性,可读性,健壮性,时间效率高和存储量低。
- 时间复杂度:它定性描述该算法的运行时间。这是一个代表算法输入值的字符串的长度的函数。时间复杂度常用大O符号表述,记作T(n)=O(f(n)。
- 平均时间复杂度:对算法的分析,一种方法是计算所有情况的平均值,这种时间复杂度的计算方法称为平均时间复杂度。
-
最坏时间复杂度:另一种方法是计算最坏情况下的时间复杂度,这种方法称为最坏时间复杂度。一般在没有特殊说明的情况下,都是指最坏时间复杂度。
-
空间复杂度:是对一个算法在运行过程中临时占用存储空间大小的量度,记做S(n)=O(f(n))。
时间复杂度和空间复杂度是评价一个算法效率的关键。
时间复杂度
时间复杂度主要思想是在这个算法中所有语句总的执行次数,用T(n)表示问题规模是n的函数,那么T(n)随着n的变化而变化。算法的时间复杂度记作T(n) = O(f(n))。其中f(n)是与问题规模有关的某个函数。
用大O()来体现时间复杂度的记法,就叫做大O记法。
当然f(n)越小,时间复杂度越小,运行时间短,算法越优。
推导大O阶的步骤
1、用常数1取代所有加法常数。
2、在修改后的运行次数函数中保留最高阶项。
3、如果最高阶项存在并且不是1,就把最高项的系数变成1。
概念都是比较的抽象,举个栗子来理解一下大O是如何计算出来的。
例:求1,2,3,…,n的总和。
第一种方法:从1开始一个一个的加法操作(for循环)
int sum = 0; //这条语句执行1次
for(int i = 1;i<=n;i++){ //这条语句执行n次
sum = sum+i; //这条语句执行n次
}
System.out.println(sum); //这条语句执行1次
这样算出来f(n) = 1+n+n+1 = 2n+2
根据上面大O阶的步骤,也就是只关心f(n)式子中最高项数,并且它的项数变成1就ok,
那么T(n) = O(n);
第二种方法:使用等差数列公式
int sum = (1+n)*n/2; //只需执行1次
只需一步电脑就可以算出结果,T(n) = O(1)。
这两种实现的结果相同,但是实现过程不同,导致算法的时间效率不同,我们学习算法追求的就是第二种方法。
在例如说根据自己的程序计算出f(n) = 3n^2+n+1,那么T(n) = O(n^2)。
在例如看图第一列就是f(n),对应的T(n)是第二列。
空间复杂度
是对一个算法在运行过程中临时占用存储空间大小的量度,记做S(n)=O(f(n))。
在算法中,分析的是所需要的辅助单元的空间。
时间长可以换取使用空间小,空间大可以换来时间短。这就是算法设计过程中需要考虑应用场景来进行时间空间上的抉择。