网上学习资料一大堆,但如果学到的知识不成体系,遇到问题时只是浅尝辄止,不再深入研究,那么很难做到真正的技术提升。
一个人可以走的很快,但一群人才能走的更远!不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!
- 2.11 总结
==================================================================
=================================================================
文章来源于大话数据结构
提升编程基础能力
数据结构、操作系统、计租、网络
陆续会慢慢更新!
资料获取
===================================================================
==========================================================================
算法和数据结构不分家
计算1到100的和
#include <stdio.h>
void main()
{
int sum;
for (int i = 0; i < 101; i++)
{
sum += i;
}
printf(“%d”,sum);
}
PS D:\C> cd “d:\C” ; if ( ? ) g c c a . c − o a ; i f ( ?) { gcc a.c -o a } ; if ( ?)gcca.c−oa;if(?) { .\a }
5050
以上就是一种算法,但它是不是很好?是不是效率很高?
下面看少年时期的高斯是怎么算,1到100的和的
用代码实现
#include <stdio.h>
void main()
{
int sum,n = 100;
sum = (1+n)*n / 2;
printf(“%d”,sum);
}
PS D:\C> cd “d:\C” ; if ( ? ) g c c a . c − o a ; i f ( ?) { gcc a.c -o a } ; if ( ?)gcca.c−oa;if(?) { .\a }
5050
这是一种等差数列的算法
第一个写的算法,要计算机进行100次的循环才能计算出来
可以看出好的算法和烂的算法的差距
我只能说小母牛到南极,牛b到了极点
=======================================================================
算法算法就是这个题怎么算,特定问题求解步骤的描述,算题的方法,解决问题的步骤,在计算机中表现为指令的有限序列,并且每条指令表示一个或多个操作
刚才的例子我们也看到,对于给定的问题,是可以有多种算法来解决的。
现实世界中的问题千奇百怪,算法当然也就千变万化,没有通用的算法可以解决所有的问题。甚至解决一个小问题,很优秀的算法却不一定适合它。
算法定义中,提到了指令,指令能被人或机器等计算装置执行。它可以是计算机指令,也可以是我们平时的语言文字。
为了解决某个或某类问题,需要把指令表示成一定的操作序列,操作序列包括一
组操作,每一个操作都完成特定的功能,这就是算法了。
========================================================================
算法具有五个基本特性:输入、输出、有穷性、确定性和可行性。
输入和输出特性比较容易理解,算法具有零个或多个输入。尽管对于绝大多数算
法来说,输入参数都是必要的,但对于个别情况,如打印“hello world!"这样的代
码,不需要任何输入参数,因此算法的输入可以是零个。算法至少有一一个或多个输出,算法是一定需要输出的,不需要输出,你用这个算法干吗?输出的形式可以是打印输出,也可以是返回-一个或多个值等。
有穷性:指算法在执行有限的步骤之后,自动结束而不会出现无限循环,并且每
一个步骤在可接受的时间内完成。
现实中经常会写出死循环的代码,这就是不满足有穷性。当然这里有穷的概念并不是纯数学意义的,而是在实际应用当中合理的、可以接受的“有边界”。你说你写一个算法,计算机需要算上个二十年,一定会结束,它在数学意义上是有穷了,可是媳妇都熬成婆了,算法的意义也不就大了。
**确定性:算法的每一步骤都具有确定的含义,不会出现二义性。**算法在一定条件
下,只有一条执行路径,相同的输入只能有唯-一的输出结果。算法的每个步骤被精确定义而无歧义。
可行性:算法的每一步都必须是可行的,也就是说,每一步都能够通过执行有限
次数完成。
**可行性意味着算法可以转换为程序上机运行,并得到正确的结果。**尽管在目前计算机界也存在那种没有实现的极为复杂的算法,不是说理论上不能实现,而是因为过于复杂,我们当前的编程方法、工具和大脑限制了这个工作,不过这都是理论研究领域的问题,不属于我们现在要考虑的范围。
==========================================================================
正确性:算法的正确性是指算法至少应该具有输入、输出和加工处理无歧义性、
能正确反映问题的需求、能够得到问题的正确答案。
但是算法的“ 正确”通常在用法上有很大的差别,大体分为以下四个层次。
1.算法程序没有语法错误。
2.算法程序对于合法的输入数据能够产生满足要求的输出结果。
3.算法程序对于非法的输入数据能够得出满足规格说明的结果。
4.算法程序对于精心选择的,甚至刁难的测试数据都有满足要求的输出结果
可读性:算法设计的另一目的是为了便于阅读、理解和交流。
一个好的算法还应该能对输入数据不合法的情况做合适的处理。比如输入的时间
或者距离不应该是负数等。
健壮性:当输入数据不合法时,算法也能做出相关处理,而不是产生异常或莫名
其妙的结果。
最后,好的算法还应该具备时间效率高和存储量低的特点。
时间效率指的是算法的执行时间,对于同一个问题,如果有多个算法能够解决,
执行时间短的算法效率高,执行时间长的效率低。
存储量需求指的是算法在执行过程中需要的最大存储空间,主要指算法程序运行时所占用的内存或外部硬盘存储空间。设计算法应该尽量满足时间效率高和存储量低的需求。在生活中,人们都希望花最少的钱,用最短的时间,办最大的事,算法也是一样的思想,最好用最少的存储空间,花最少的时间,办成同样的事就是好的算法。
书中举的例子实在是太好了!!!
综上,好的算法,应该是具有正确性,可读性,健壮性,高效率低存储量的特征
============================================================================
事后统计方法:这种方法主要是通过设计好的测试程序和数据,利用计算机计时器对不同算法编制的程序的运行时间进行比较,从而确定算法效率的高低。
我们的计算机前辈们,为了对算法的评判更科学,研究出了一种叫做事前分析估算的方法。
事前分析估算方法:在计算机程序编制前,依据统计方法对算法进行估算。
也就是说,抛开这些与计算机硬件、软件有关的因素,一个程序的运行时间,依赖于算法的好坏和问题的输入规模。所谓问题输入规模是指输入量的多少。
显然,第一种算法,执行了1+ (n+1) +n+1次=2n+3 次;而第二种算法,是1+1+1=3次。
事实上两个算法的第一条和最后一条语句是一样的,所以我们关注的代码其实是中间的那部分,我们把循环看作一个整体,忽略头尾循环判断的开销,那么这两个算法其实就是n次与1次的差距。算法好坏显而易见。
可以从问题描述中得到启示,同样问题的输入规模是n,求和算法的第一种,求1+2+…+n需要一段代码运行n次。那么这个问题的输入规模使得操作数量是f (n)= n,显然运行100次的同一段代码规模是运算10次的10倍。
而第二种,无论n为多少,运行次数都为1,即f(n)=1;
第三种,运算100次是运算10次的100倍。因为它是f (n) =n^2
这一点也很好理解是吧!
==========================================================================
函数的渐近增长:给定两个函数f(n)和g(n),如果存在一个整数N,使得对于所有的n>N, f(n)总是比g(n)大,那么,我们说f(n)的增长渐近快于g(n)。
总结:
随着n的增大,后面的+3还是+1其实是不影响最终的算法变化的,例如算法A’与算法B’ ,所以,我们可以忽略这些加法常数。后面的例子,这样的常数被忽略的意义可能会更加明显。
最高次项相乘的常数并不重要。
最高次项的指数大的,函数随着n的增长,结果也会变得增长特别快。
判断一个算法的效率时,函数中的常数和其他次要项常常可以忽略,而更应该关注主项(最高阶项)的阶数。
==========================================================================
在进行算法分析时,语句总的执行次数T(n)是关于问题规模n的函数,进而分析T(n)随n的变化情况并确定 T( n )的数量级。算法的时间复杂度,也就是算法的时间量度,记作: T (n)= O(f(n))。它表示随问题规模n的增大,算法执行时间的增长率和f(n)的增长率相同,称作算法的渐近时间复杂度,简称为时间复杂度。其中f(n)是问题规模n的某个函数。
这样用大写0( )来体现算法时间复杂度的记法,我们称之为大0记法。
一般情况下, 随着n的增大,T(n)增长最慢的算法为最优算法。
显然,由此算法时间复杂度的定义可知,我们的三个求和算法的时间复杂度分别为O(n), O(1), O(n2)。我们分别给它们取了非官方的名称,0(1)叫常数阶、0(n)叫线性阶、0(n2)叫平方阶,当然,还有其他的一些阶,之后会介绍
那么如何分析一个算法的时间复杂度呢?即如何推导大0阶呢?
推导大O阶:
1.用常数1取代运行时间中的所有加法常数
2.在修改后的运行次数函数中,只保留最高阶项
3.如果最高阶项存在且不是1,则去除与这个项相乘的常数。
得到的结果就是大O阶
哈,仿佛是得到了游戏攻略一样,我们好像已经得到了一个推导算法时间复杂度的万能公式。可事实上,分析一个算法的时间复杂度,没有这么简单,还需要多.看几个例子
首先顺序结构的时间复杂度。下面这个算法,也就是刚才的第二种算法(高斯算法),为什么时间复杂度不是0(3),而是0(1)。
int sum = 0,n = 100; /执行一次/
sum =(1+n)*n/2; /执行一次/
printf ( “8d”, sum) ; /执行一次/
这个算法的运行次数函数是f (n) =3。 根据我们推导大0阶的方法,第一步就是把常数项3改为1。在保留最高阶项时发现,它根本没有最高阶项,所以这个算法的时间复杂度为O(1)
网上学习资料一大堆,但如果学到的知识不成体系,遇到问题时只是浅尝辄止,不再深入研究,那么很难做到真正的技术提升。
一个人可以走的很快,但一群人才能走的更远!不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!
什么时间复杂度不是0(3),而是0(1)。
int sum = 0,n = 100; /执行一次/
sum =(1+n)*n/2; /执行一次/
printf ( “8d”, sum) ; /执行一次/
这个算法的运行次数函数是f (n) =3。 根据我们推导大0阶的方法,第一步就是把常数项3改为1。在保留最高阶项时发现,它根本没有最高阶项,所以这个算法的时间复杂度为O(1)
[外链图片转存中…(img-sTMMF9GW-1715642405899)]
[外链图片转存中…(img-nfFrXSWh-1715642405899)]
网上学习资料一大堆,但如果学到的知识不成体系,遇到问题时只是浅尝辄止,不再深入研究,那么很难做到真正的技术提升。
一个人可以走的很快,但一群人才能走的更远!不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!