在算法进行时,语句总的执行次数T(n)是关于问题规模n的函数,进而分析T(n)随n的变化情况并确定T(n)的数量级。算法的时间复杂度,也就是算法的时间量度。一般情况下,随n的增大,T(n)增长最慢的是最优解。用o()来表示时间复杂度
推导大o阶
1.用常数1取代运行时间中所有的加法常数
2.在修改后的运行次数中,只保留最高阶项。
3.如果最高阶项存在且不是1,则去除与这个项相乘的常数
常数阶
int sum=0,n=200;
sum=(1+n)*n/2;
printf("%d",sum);
上面代码都是执行一次的,有固定执行时间的,f(n)=3,根据大o推导用常数项1取代3,就表示为o(1),为常数阶,同样
int sum=0,n=200;
sum=(1+n)*n/2;
sum=(1+n)*n/2
sum=(1+n)*n/2
sum=(1+n)*n/2
sum=(1+n)*n/2
printf("%d",sum);
也是属于o(1),常数阶的。
线性阶
int i,d=0;
for(i=0;i<n;i++)
{
d--;
}
执行了n次,他的时间复杂度为o(n)
对数阶
int count=1;
while(count<n)
{
count*=2;
}
count无限接近于n,执行了log2n次,所以推导出来o(log2n),为对数阶。
平方阶
对于
int i,j,d=0;
for(i=0;i<n;i++)
{
for(j=0;j<n;j++)
{
d++;
}
}
程序内套了一个时间复杂度为O(n)的循环,外面又套了一个,所以时间复杂度为O(n^2)
像下面的就要用到公式推导
int i,j,d=0;
for(i=0;i<n;i++)
{
for(j=i;j<n;j++)
{
d++;
}
}
执行次数为n+n-1+n-2+n-3+…+1,f(n)=(n^2+n)/2,根据推导,先去除常数,然后去最高阶,剩下 n2/2,再去掉常数,所以时间复杂度为O(n^2)
调用函数不影响时间复杂度
相关时间复杂度的大小关系
O(1)<O(logn)<O(n)<O(nlogn)<O(n^2)<O(n ^3)<O(2 ^n)<O(n!)<O(n ^n)