算法效率
我们现在先不急着讲算法效率,我们先试想一个场景:有一个很菜的大学生,打开了一个叫力扣的刷题网站,随便炫了一道题,花了几十分钟拼死拼活写出了一段代码,点击运行,运行时间1001ms,直接超时,当场去世。然后缝缝补补,改改bug,一天就这么过去了。
还是这个很菜的大学生,大学生觉得自己刷题的策略很有问题,于是在做每一道题目前都会先花几分钟思考一下:这个题型是不是见过?有没有比较好的解法?要不要去考虑一些复杂的情况?虽然这个大学生还是很菜,但是他做题的体验感上去了很多:省去了一些微调代码的时间,代码变得更加容易阅读,正确率也上升了不少,也有了出去闲逛的时间。简单来说,就是他刷题的效率上升了。
既然标题叫算法效率,接下来我们肯定要讲到算法。以一个简洁漂亮的斐波那契数列为例。
long long Fib(int N)
{
if(N < 3)
return 1;
return Fib(N-1) + Fib(N-2);
}
短短几行代码就能实现复杂的功能,但是我们都知道,这个函数在求40左右的斐波那契数就有些力不从心,更不用去谈什么100,200。
40左右,我都能算的出来,要你何用?
为什么会出现这种状况?这个就和算法的复杂度有关了。
算法的复杂度
算法在编写成可执行程序后,运行时需要耗费时间资源和空间(内存)资源 。因此衡量一个算法的好坏,一般是从时间和空间两个维度来衡量的,即时间复杂度和空间复杂度。
时间复杂度主要衡量一个算法的运行快慢,而空间复杂度主要衡量一个算法运行所需要的额外空间。
在计算机发展的早期,计算机的存储容量很小。所以对空间复杂度很是在乎。但是经过计算机行业的迅速发展,计算机的存储容量已经达到了很高的程度。所以我们如今已经不需要再特别关注一个算法的空间复杂度。
时间复杂度
时间复杂度的定义:在计算机科学中,算法的时间复杂度是一个函数,它定量描述了该算法的运行时间。一个算法执行所耗费的时间,从理论上说,是不能算出来的,只有你把你的程序放在机器上跑起来,才能知道。但是我们需要每个算法都上机测试吗?是可以都上机测试,但是这很麻烦,所以才有了时间复杂度这个分析方式。一个算法所花费的时间与其中语句的执行次数成正比例,算法中的基本操作的执行次数,为算法的时间复杂度。
即:找到某条基本语句与问题规模N之间的数学表达式,就是算出了该算法的时间复杂度。
举个例子:
// 请计算一下Func1中++count语句总共执行了多少次?
void Func1(int N)
{
int count = 0;
for (int i = 0; i < N ; ++ i)
{
for (int j = 0; j < N ; ++ j)
{
++count;
}
}
for (int k = 0; k < 2 * N ; ++ k)
{
++count;
}
int M = 10;
while (M--)
{
++count;
}
printf("%d\n", count