1.什么是算法
2.好算法的标准
3.算法复杂度计算方法
例1:
1 int sum = 0;//运行1次2 int total = 0;//运行1次3 for (int i = 1; i <= n; i++) {//运行n+1次(最后一次不满足的判断也算一次)4 sum = sum+i;//运行n次5 for (int j = 1; j <= n; j++) {//运行n*(n+1)次6 total = total +i*j;//运行n*n次7 }8 }
把算法的所有语句的运行次数加起来:1=1+n+1+n+n(n+1)+nxn
得T(n)=2n2+3n+3
所以当n足够大时,例如n=105时,依据极限思想,算法的运行时间将主要取决于幂最大的一项
对于一些算法,如排序、查找、插入等算法,可以分为最好、最坏和平均情况分别求算法渐近复杂度,但我们考察一个算法通常考察最坏的情况,而不是考察最好的情况,最坏情况对衡量算法的好坏具有实际的意义。
4.递归算法复杂度计算
5.常见算法复杂度
常见的算法复杂度有以下几类:
1)常数阶
常数阶算法运行的次数是一个常数,如5、20、100.常数阶算法时间复杂度通常用O(1)表示。
2)多项式阶
如O(n)、O(n2)、O(n3)等
3)指数阶
指数阶时间复杂度运行效率极差,程序员往往像躲“恶魔”一样避开它,常见的如O(2n)、O(n!)、O(nn)等,实验这样的算法要慎重
4)对数阶
对数阶时间复杂度运行效率较高,常见的有O(logn)、O(nlogn)等
一般比较关系:O(1)2)3)n)n)