算法时间复杂度
算法时间复杂度的定义:
在进行算法分析时,语句总的执行次数T(n)是关于问题规模n的函数,进而分析T(n)随n的变化情况并确定T(n)的数量级。
算法的时间复杂度,也就是算法的时间量度,记作:T(n)=O(f(n))。它表示随问题规模n的增大,算法执行时间的增长率和f(n)的增长率相同,乘坐算法的渐进时间复杂度,简称为时间复杂度。其中f(n)是问题规模n的某个函数。
int arr[] = {1,2,3,4,5}; len 为问题规模
void show(int* arr , int len)
{
for(int i = 0;i < len ; i++)
{
printf("%d\n",arr[i]); //1 + 3+3+3+3+3
}
}
// (3n+1) --> O(n)
推导大O阶方法
1.用常数1取代运行时间中所有加法常数
2.在修改后的运行次数函数中, 只保留最高阶项。
3.如果最高阶项存在且不是1,则去除与这个项相乘的常数。
得到的结果就是大O阶。
例如:show()函数中运行次数函数为f(n)=3n+1 舍弃1 与 3得到O(n).
常数阶
int sum = 0, n=100; //执行一次 (一个分号执行一次)
sum = (1+n)*n/2; //执行一次
printf("%d\n",sum); //执行一次
//O(1)
运行次数函数为f(n)=3,第一步把常数项3改为1,没有最高阶项,所以时间复杂度为O(1)
线性阶
for(int i=0;i<n;i++)
{
}
//时间复杂度为O(n)
for(int i=0;i<n;i++)
for(int j=0;j<n;i++)
{
int a=0;
}
//时间复杂度为O(n^2)
对数阶
int i= 1;
while (i<n)
{
i*=2;
}
//时间复杂度为O(logn)
由于每次i乘以2之后,就距离n更近了一分。有2^x=n,得到x=log2n.
O(1)>O(logn)>O(n)>O(nlogn)>O(n^2)
给定一个思想,推时间复杂度
时间复杂度:访问当前问题规模中元素的个数
思路->效率 -> 代码