算法分析(时间复杂度分析和空间复杂度分析)


研究算法的目的就是如何花更少的时间,如何占用更少的内存去完成相同的需求。我们要学习有关算法时间耗费和算法空间耗费的描述和分析以定量分析算法的优劣。 有关算法时间耗费分析,我们称之为算法的时间复杂度分析,有关算法的空间耗费分析,我们称之为算法的空间复杂度分析。

算法的时间复杂度分析

我们要计算算法时间耗费情况,首先我们得度量算法的执行时间,那么如何度量呢?

事后分析估算方法

比较容易想到的方法就是我们把算法执行若干次,然后拿个计时器在旁边计时,这种事后统计的方法看上去的确不错,并且也并非要我们真的拿个计算器在旁边计算,因为计算机都提供了计时的功能。这种统计方法主要是通过设计好的测试程序和测试数据,利用计算机计时器对不同的算法编制的程序的运行时间进行比较,从而确定算法效率的高低,但是这种方法有很大的缺陷:必须依据算法实现编制好的测试程序,通常要花费大量时间和精力,测试完了如果发现测试的是非常糟糕的算法,那么之前所做的事情就全部白费了,并且不同的测试环境(硬件环境)的差别导致测试的结果差异也很大。

public class test1 {
    public static void main(String[] args) {
        long start = System.currentTimeMillis();
        int sum = 0;
        int n = 100;
        for (int i = 1; i < n+1; i++) {
            sum += i;
        }
        System.out.println("sum=" + sum);
        long end = System.currentTimeMillis();

        System.out.println(end-start);
    }
}

事前分析估算方法:

在计算机程序编写前,依据统计方法对算法进行估算,经过总结,我们发现一个高级语言编写的程序程序在计算机上运行所消耗的时间取决于下列因素:

  1. 算法采用的策略和方案;
  2. 编译产生的代码质量;
  3. 问题的输入规模(所谓的问题输入规模就是输入量的多少);
  4. 机器执行指令的速度; 由此可见,抛开这些与计算机硬件、软件有关的因素,一个程序的运行时间依赖于算法的好坏和问题的输入规模。

如果算法固定,那么该算法的执行时间就只和问题的输入规模有关系了。
案例:计算1到100的和:
方法1:

public class method1 {
    public static void main(String[] args) {
        int sum = 0;
        int n = 100;
        for (int i = 0; i < 100; i++) {
            sum += i;
        }
        System.out.println("sum=" + sum);
    }
}

方法2:

public class method2 {
    public static void main(String[] args) {
        int sum = 0;
        int n = 100;
        sum = (n+1) * n/2;
        System.out.println("sum=" + sum);
    }
}

当输入规模为n时,第一种算法执行了1+1+(n+1)+n=2n+3次;第二种算法执行了1+1+1=3次。如果我们把第一种算法的循环体看做是一个整体,忽略结束条件的判断,那么其实这两个算法运行时间的差距就是n和1的差距。

为什么循环判断在算法1里执行了n+1次,看起来是个不小的数量,但是却可以忽略呢?
案例:计算100个1 + 100个2 + 100个3 + 。。。 +100个100

public class test2 {
    public static void main(String[] args) {
        int sum = 0;
        int n = 100;
        for (int i = 1; i < n+1; i++) {
            for (int j = 1; j < n+1; j++) {
                sum += i;
            }
        }
        System.out.println("sum=" + sum);
    }
}
sum=505000

上面这个例子中,如果我们要精确的研究循环的条件执行了多少次,是一件很麻烦的事情,并且,由于真正计算和的代码是内循环的循环体,所以,在研究算法的效率时,我们只考虑核心代码的执行次数,这样可以简化分析。我们研究算法复杂度,侧重的是当输入规模不断增大时,算法的增长量的一个趋势,而不是精确地定位需要执行多少次。

函数渐进增长

给定两个函数f(n)和g(n),如果存在一个整数N,使得对于所有的n>N,f(n)总是比g(n)大,那么我们说f(n)的增长渐近快于g(n)。

  • 测试1:假设四个算法的输入规模都是n:
  1. 算法A1要做2n+3次操作,可以这么理解:先执行n次循环,执行完毕后,再有一个n次循环, 后有3次运算;
  2. 算法A2要做2n次操作;
  3. 算法B1要做3n+1次操作,可以这个理解:先执行n次循环,再执行一个n次循环,再执行一个n次循环, 后有1 次运算。
  4. 算法B2要做3n次操作;

在这里插入图片描述
通过数据表格,比较算法A1和算法B1:
当输入规模n=1时,A1需要执行5次,B1需要执行4次,所以A1的效率比B1的效率低;
当输入规模n=2时,A1需要执行7次,B1需要执行7次,所以A1的效率和B1的效率一样;
当输入规模n>2时,A1需要的执行次数一直比B1需要执行的次数少,所以A1的效率比B1的效率高; 所以我们可以得出结论:
当输入规模n>2时,算法A1的渐近增长小于算法B1 的渐近增长
通过观察折线图,我们发现,随着输入规模的增大,算法A1和算法A2逐渐重叠到一块,算法B1和算法B2逐渐重叠到一块,所以我们得出结论:
随着输入规模的增大,算法的常数操作可以忽略不计。

  • 测试二:假设四个算法的输入规模都是n:
  1. 算法C1需要做4n+8次操作
  2. 算法C2需要做n次操作
  3. 算法D1需要做2n^2次操作
  4. 算法D2需要做n^2次操作

在这里插入图片描述
通过数据表格,对比算法C1和算法D1:
当输入规模n<=3时,算法C1执行次数多于算法D1,因此算法C1效率低一些; 当输入规模n>3时,算法C1执行次数少于算法D1,因此,算法D2效率低一些, 所以,总体上,算法C1要优于算法D1.
通过折线图,对比对比算法C1和C2:
随着输入规模的增大,算法C1和算法C2几乎重叠通过折线图,对比算法C系列和算法D系列:
随着输入规模的增大,即使去除n^2前面的常数因子,D系列的次数要远远高于C系列。

因此,可以得出结论:
随着输入规模的增大,与最高次项相乘的常数可以忽略不计。

  • 测试三:假设四个算法的输入规模都是n:
  1. 算法E1 =2n^2+3n+1;
  2. 算法E2: n^2
  3. 算法F1:2n^3+3n+1
  4. 算法F2: n^3

在这里插入图片描述
在这里插入图片描述
通过数据表格,对比算法E1和算法F1:
当n=1时,算法E1和算法F1的执行次数一样;
当n>1时,算法E1的执行次数远远小于算法F1的执行次数; 所以算法E1总体上是由于算法F1的。
通过折线图我们会看到,算法F系列随着n的增长会变得特块,算法E系列随着n的增长相比较算法F来说,变得比较慢。
所以可以得出结论:
最高次项的指数大的,随着n的增长,结果也会变得增长特别快。

  • 测试四:假设五个算法的输入规模都是n:
  1. 算法G: n^3;
  2. 算法H: n^2;
  3. 算法I: n;
  4. 算法J: logn;
  5. 算法K: 1;

在这里插入图片描述
在这里插入图片描述
通过观察数据表格和折线图,很容易可以得出结论: 算法函数中n最高次幂越小,算法效率越高总上所述,在我们比较算法随着输入规模的增长量时,可以有以下规则:
1.算法函数中的常数可以忽略;
2.算法函数中最高次幂的常数因子可以忽略;
3.算法函数中最高次幂越小,算法效率越高。

算法时间复杂度

大O记法

在进行算法分析时,语句总的执行次数T(n)是关于问题规模n的函数,进而分析T(n)随着n的变化情况并确定T(n)的量级。算法的时间复杂度,就是算法的时间量度,记作:T(n)=O(f(n))。它表示随着问题规模n的增大,算法执行时间的增长率和f(n)的增长率相同,称作算法的渐近时间复杂度,简称时间复杂度,其中f(n)是问题规模n的某个函数。
用大写O()来体现算法时间复杂度的记法,我们称之为大O记法。一般情况下,随着输入规模n的增大,T(n)增长慢的算法为最优算法。

下面我们使用大O表示法来表示一些求和算法的时间复杂度:

  • 算法1:
public class test3 {
    public static void main(String[] args) {
        int sum = 0;
        int n = 100;
        sum = (n+1) * n / 2;
        System.out.println("sum=" + sum);
    }
}
  • 算法2:
public class test4 {
    public static void main(String[] args) {
        int sum = 0;
        int n = 100;
        for (int i = 1; i < n+1; i++) {
            sum += i;
        }
        System.out.println("sum=" + sum);
    }
}
  • 算法3
public class test5 {
    public static void main(String[] args) {
        int sum = 0;
        int n = 100;
        for (int i = 1; i < n+1; i++) {
            for (int j = 1; j <n+1 ; j++) {
                sum += i;
            }
        }
        System.out.println("sum=" + sum);
    }
}

如果忽略判断条件的执行次数和输出语句的执行次数,那么当输入规模为n时,以上算法执行的次数分别为:

  • 算法一:3次
  • 算法二:n+3次
  • 算法三:n^2+2次

如果用大O记法表示上述每个算法的时间复杂度,应该如何表示呢?基于我们对函数渐近增长的分析,推导大O阶的表示法有以下几个规则可以使用:
1.用常数1取代运行时间中的所有加法常数;
2.在修改后的运行次数中,只保留高阶项;
3.如果最高阶项存在,且常数因子不为1,则去除与这个项相乘的常数

所以,上述算法的大O记法分别为:
算法一:O(1)
算法二:O(n)
算法三:O(n^2)

常见的大O阶

线性阶

一般含有非嵌套循环涉及线性阶,线性阶就是随着输入规模的扩大,对应计算次数呈直线增长。

public class test4 {
    public static void main(String[] args) {
        int sum = 0;
        int n = 100;
        for (int i = 1; i < n+1; i++) {
            sum += i;
        }
        System.out.println("sum=" + sum);
    }
}
平方阶

一般单层嵌套循环属于这种时间复杂度。

public class test5 {
    public static void main(String[] args) {
        int sum = 0;
        int n = 100;
        for (int i = 1; i < n+1; i++) {
            for (int j = 1; j <n+1 ; j++) {
                sum += i;
            }
        }
        System.out.println("sum=" + sum);
    }
}
对数阶
int i =1, n = 100;
while(1<n){
	i = i*2;
}

由于每次i*2之后,就距离n更近一步,假设有x个2相乘后大于n,则会退出循环。由于是2^x=n,得到x=log(2)n,所以这个循环的时间复杂度为O(logn)。

对于对数阶,由于随着输入规模n的增大,不管底数为多少,他们的增长趋势是一样的,所以我们会忽略底数。
在这里插入图片描述
在这里插入图片描述

常数阶

一般不涉及循环操作的都是常数阶,因为它不会随着n的增长而增加操作次数。

int n = 100;
int i = n + 2;
System.out.println(i);

上述代码,不管输入规模n是多少,都执行2次,根据大O推导法则,常数用1来替换,所以上述代码的时间复杂度为O(1)

复杂程度比较

O(1)<O(logn)<O(n)<O(nlogn)<O(n^ 2)<O(n^3)

函数调用的时间复杂度分析

之前,我们分析的都是单个函数内,算法代码的时间复杂度,接下来我们分析函数调用过程中时间复杂度。

  • 案例1:
public class test6 {
    public static void main(String[] args) {
        int n = 100;
        for (int i = 0; i < n; i++) {
            show(i);
        }
    }
    
    private static void show(int i ){
        System.out.println(i);
    }
}

在main方法中,有一个for循环,循环体调用了show方法,由于show方法内部只执行了一行代码,所以show方法的时间复杂度为O(1),那main方法的时间复杂度就是O(n)。

  • 案例2:
public class test7 {
    public static void main(String[] args) {
        int n = 100;
        for (int i = 0; i < n; i++) {
            show(i);
        }
    }
    
    private static void show(int i ){
        for (int j = 0; j < i; j++) {
            System.out.println(i);
        }
    }
}

在main方法中,有一个for循环,循环体调用了show方法,由于show方法内部也有一个for循环,所以show方法的时间复杂度为O(n),那main方法的时间复杂度为O(n^2)。

  • 案例3:
public class test8 {
    public static void main(String[] args) {
        int n = 100;
        show(n);
        for (int i = 0; i < n; i++) {
            show(i);
        }
        for (int i = 0; i < n; i++) {
            for (int j = 0; j < n; j++) {
                System.out.println(i);
            }
        }
    }

    private static void show(int i ){
        for (int j = 0; j < i; j++) {
            System.out.println(i);
        }
    }
}

在show方法中,有一个for循环,所以show方法的时间复杂度为O(n),在main方法中,show(n)这行代码内部执行的次数为n,第一个for循环内调用了show方法,所以其执行次数为n^ 2,第二个嵌套for循环内只执行了一行代码,所以其执行次数为n ^ 2,那么main方法总执行次数为n+n^ 2 +n ^2= 2n ^2+n。根据大O推导规则,去掉n保留 高阶项,并去掉 高阶项的常数因子2,所以 终main方法的时间复杂度为O(n ^ 2)。

最坏情况

最坏情况是一种保证,在应用中,这是一种基本的保障,即使在最坏情况下,也能够正常提供服务,所以除非特别指定,我们提到的运行时间都指的是最坏情况下的运行时间。

案例:需求: 有一个存储了n个随机数字的数组,请从中查找出指定的数字。

public class worst {
    
    public int search(int num) {
        int[] arr = {11,10,8,9,7,23,22,0};
        for (int i = 0; i < arr.length; i++) {
            if (num == arr[i]){
                return i;
            }
        }
        return -1;
    }
}
  • 最好情况:
    查找的第一个数字就是期望的数字,那么算法的时间复杂度为O(1)
  • 最坏情况:
    查找的 后一个数字,才是期望的数字,那么算法的时间复杂度为O(n)
  • 平均情况:
    任何数字查找的平均成本是O(n/2)

算法的时间复杂度分析

计算机的软硬件都经历了一个比较漫长的演变史,作为为运算提供环境的内存,更是如此,从早些时候的512k,经历了1M,2M,4M…等,发展到现在的8G,甚至16G和32G,所以早期,算法在运行过程中对内存的占用情况也是一个经常需要考虑的问题。我么可以用算法的空间复杂度来描述算法对内存的占用。

常见内存占用

数据类型内存占用字节数
byte1
short2
int4
long8
float4
double8
boolean1
char2
  • 计算机访问内存的方式都是一次一个字节
    在这里插入图片描述

  • 一个引用(机器地址)需要8个字节表示:
    例如: Date date = new Date(),则date这个变量需要占用8个字节来表示。

  • 创建一个对象,比如new Date(),除了Date对象内部存储的数据(例如年月日等信息)占用的内存,该对象本身也有内存开销,每个对象的自身开销是16个字节,用来保存对象的头信息。

  • 一般内存的使用,如果不够8个字节,都会被自动填充为8字节:

在这里插入图片描述

  • java中数组被被限定为对象,他们一般都会因为记录长度而需要额外的内存,一个原始数据类型的数组一般需要24字节的头信息(16个自己的对象开销,4字节用于保存长度以及4个填充字节)再加上保存值所需的内存。

算法空间复杂度

和算法时间复杂度类似,算法的空间复杂度计算公式记作:S(n)=O(f(n)),其中n为输入规模,f(n)为语句关于n所占存储空间的函数。

案例: 对指定的数组元素进行反转,并返回反转的内容。
方法1:

public static int[] reverse(int[] arr) {
        int n = arr.length; //4字节
        int temp; //4字节
        for (int start = 0,end=n-1; start <= end ; start++,end--) {
            temp = arr[start];
            arr[start] = arr[end];
            arr[end] = temp;
        }
        return arr;
    }

方法2:

public static int[] reverse2(int[] arr) {
        int n = arr.length; //4字节
        int[] temp = new int[n];//n*4字节+头信息24字节
        for (int i = n-1; i >=0 ; i--) {
            temp[n-1-i] = arr[i];
        }
        return temp;
    }

忽略判断条件占用的内存,我们得出的内存占用情况如下:

  • 算法一:不管传入的数组大小为多少,始终额外申请4+4=8个字节;
  • 算法二: 4+4n+24=4n+28;

根据大O推导法则,算法一的空间复杂度为O(1),算法二的空间复杂度为O(n),所以从空间占用的角度讲,算法一要优于算法二。

由于java中有内存垃圾回收机制,并且jvm对程序的内存占用也有优化(例如即时编译),我们无法精确的评估一个java程序的内存占用情况,但是了解了java的基本内存占用,使我们可以对java程序的内存占用情况进行估算。由于现在的计算机设备内存一般都比较大,基本上个人计算机都是4G起步,大的可以达到32G,所以内存占用一般情况下并不是我们算法的瓶颈,普通情况下直接说复杂度,默认为算法的时间复杂度。

  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值