时间复杂度:定义
在进行算法算法分析时,语句总是执行次数T(n) 是关于问题规模n的函数,进而分析T(n)随n变化情况并确定T(n) 的数量级。算法时间复杂度,也就是算法的时间度量,记作:T(n) = O(f(n))。 它随着问题规模n的增大。算法的执行时间增长率和f(n) 的增长率相同,称作算法的渐进时间复杂度,简称为时间复杂度。其中f(n) 是问题规模n的某个函数 采用O[ ] 来体现算法时间复杂度 简称 大O记法
推导方法
1.用常数1取代所有运行时间中加法常数 n+1+2 = O(1)
2.在修改后的运行次数函数,只保留最高阶项 n²+n^3 =O( n^3)
3.如果最高阶项存在且不是1,去除掉 与这个项相乘的函数 2*n² = O(n²)
常数阶 O(1)
int i=0,j=100 ; //执行一次
i = (1+j)*n/2 //执行一次
线性阶 O(n)
for (int i = 0;i<n;i++)
{
//执行n次
}
对数阶 O(logn) [2^x = n , x = log2n]
int count = 0;
while (count<n)
{
//执行了log2n次
count = count*2;
}
平方阶 O(n²) 【如果循环次数的一个改成m 那么就是 O(m*n)】
//执行了n²次
for (int i=0;i<n;i++)
{
for (int j=0;j<n;j++)
{
}
}
还有其他的阶 到此 介绍这些吧