定义
在进行算法分析时,语句总的执行次数T(n)时关于问题规模n的函数,进而分析T(n)随n的变化情况并确定T(n)的数量级。算法的时间复杂度,也就是算法的时间度量,记作:T(n) = O(f(n))。它表示岁问题规模n的增大,称作算法的渐进时间复杂度,简称为时间复杂度。其中f(n)时问题规模n的某个函数。
说了半天就差不多要知道这个东西 执行此时==时间
O()
来提现算法时间复杂度的记法,称为大O记法
一般情况下,随着输入规模n的增大,T(n)增长最 慢
的算法为最优算法
推导大O阶方法
- 用常数1取代运行时间中的所有加法常数
- 在修改后的运行次数函数中,只保留最高阶项
- 如果最高阶项数存在而且不是1,则去除与这个项相乘的常数
- 得到的最后结果就是大O阶
常数阶:O(1)
线性阶:O(n)
一般含有非嵌套循环涉及线性阶,对应计算次数呈直线增长
int n = 100, sum = 0;
for(int i = 0; i < n; i++)
{
sum += i;
}
平方阶:O(n^2)
如果n=100,外层执行一次,内层执行100次,所以程序执行了100^2次
int i, j, n = 100;
for (i = 0; i < n; i++)
{
for (j = 0; j < n; j++)
{
printf("hello");
}
}
但是如果存在
int i, j, n = 100;
for (i = 0; i < n; i++)
{
for (j = i; j < n; j++)
{
printf("hello");
}
}
他还是O(n^2)