算法时间复杂度

本文介绍了算法时间复杂度的概念,通过大O记法描述算法的渐近时间复杂度,包括常数阶、线性阶、对数阶和平方阶的分析,并探讨了常见的时间复杂度等级,帮助理解不同复杂度级别的算法执行效率。
摘要由CSDN通过智能技术生成

算法时间复杂度定义

在进行算法分析时,语句总的执行次数 T ( n ) T(n) T(n) 是关于问题规模 n 的函数,进而分析 T ( n ) T(n) T(n) 随 n 的变化情况并确定 T ( n ) T(n) T(n) 的数量级。算法的时间复杂度,也就是算法的时间量度,记作: T ( n ) = O ( f ( n ) ) T(n)=O(f(n)) T(n)=O(f(n))。它表示随问题规模 n 的增大,算法执行时间的增长率和 f ( n ) f(n) f(n) 的增长率相同,称作算法的渐近时间复杂度,简称时间复杂度。其中 f ( n ) f(n) f(n) 是问题规模 n 的某个函数。

这样用大写 O ( ) O() O() 来体现算法时间复杂度的记法,称之为大O记法

一般情况下,随着 n 的增大, T ( n ) T(n) T(n) 增长最慢的算法为最优算法

推导大 O 阶方法

推导大 O 阶:

  1. 用常数 1 取代运行时间中的所有加法常数
  2. 在修改后的运行次数函数中,只保留最高阶项
  3. 如果最高阶项存在且不是 1,则去除与这个项相乘的常数

得到的结果就是大 O 阶

常数阶

与问题的大小无关(n 的多少),执行时间恒定的算法,称之为具有 O ( 1 ) O(1) O(1) 的时间复杂度,又叫常数阶

:不管这个常数是多少,都记作 O ( 1 ) O(1) O(1),而不能是 O ( 3 ) O(3) O(3) O ( 12 ) O(12) O(12) 等其他任何数字

线性阶

for(int i=0;i<n;i++){
   
    // 时间复杂度为 O(1) 的程序步骤
}

上面的时间复杂度是 O ( n ) O(n) O(n),因为循环体的代码需要执行 n 次。

对数阶

int count=1;
while(count<n){
   
    count=count*2;
}

由于每次 count 乘以 2 之后,距离 n 更近一分。也就是说,有多少个 2 相乘后大于 n,则会退出循环。由 2 x = n 2^{x}=n

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值