算法的定义:算法是解决特定问题的求解步骤的描述。在计算机中为指令的有限序列,并且每条指令表示为一个或多个操作。
算法的特性:
- 有穷性:执行有限步骤后结束,并且每个步骤在可接受的时间内完成。
- 确定性:算法的每一个步骤都具有确定的含义,不会出现二义性。
- 可行性:算法的每一步都能够通过执行有限次数完成。
- 输入:算法具有零个或多个输入。
- 输出:算法至少有一个或多个输出
算法的设计要求:正确性、可读性、健壮性、时间效率高和低存储量需求。
推导大O阶:
1.用常数1,取代运行时间中的所有加法常数。
2.在修改后的运行次数函数中,只保留最高阶像。
3.如果最高阶项存在且不是1,则去除与这个项相乘的常数。
得到的结果就是大O阶。
常见的时间复杂度所耗费的时间,从小到大依次是:
时间复杂度 T(n)=O( f(n) )
n:问题的输入规模
f(n):对于n的基本操作的执行次数。运行时间与这个计数成正比。
空间复杂度 S(n)=O( f(n))
n:问题的输入规模
f(n):为语句关于n,所占的存储空间的函数。
若算法执行时所需的辅助空间相对于输入数据量而言是个常数,则称此算法为原地工作,空间复杂度为O(1)。