算法基础(三)--数据结构(数组)

数组

大部分编程语言中,数组都是从0开始编号的,但你是否下意识地想过,为什么数组要从0开始编号,而不是从1开始
呢?
从1开始不是更符合人类地思维习惯吗?

如何实现随机访问

什么是数组?我想你心中已经有了答案。不过,我还是想用专业的话来给你做下解释。数组(Array)是一种
线性表数据结构。它用一组连续的内存空间,来存储一组具有相同类型的数据
。这个定义里有几个关键词,
理解这几个关键词,理解了这几个关键词,我想你就能彻底掌握数组的概念了。

第一是线性表(Linear List),顾名思义,线性表就是数据排成像一条线一样的结构。每个线性表上的数据
最多只有前和后两个方向。其实除了数组,链表、队列、栈等也是线性表结构。

  

而于它相对立的概念是非线性表,比如:二叉树、堆、图等。之所以叫非线性表,是因为,在非线性表中,数
据之间并不是简单的前后关系。

  

第二个是连续的内存空间和相同类型的数据。正是因为这两个限制,它才有了一个堪称“杀手锏”的特性:“
随机访问”。但是有利就有弊,这两个限制也让数组的很多操作变得非常低效,比如要想在数组中删除、插入一个
数据,为了保证连续性,就需要做大量的数据搬移工作。说到数据的访问,那你知道数组是如何根据下标随机访问数组
元素的吗?

我们拿一个长度为10的int类型的数组var a [10]int来举例。计算机给数组a分配了一块连续内存空间1000~1039,
其中,内存块的首地址为base_address=1000。我们知道,计算机会给内存单元分配一个地址,计算机通过地址来访问
内存中的数据。当计算机需要随机访问数组中的某个元素时,它会首先通过下面的寻址公式,计算出该元素存储的内存
地址:

a[i]_address = base_address + i * data_type_size

其中data_type_size表示数组中每个元素的大小。我们举的这个例子里,数组中存储的是int类型数据,所有data_type_size
就为4个字节。这个公式非常简单,这里就不做过多的解释。

这里要特别纠正一个“错误”。我们常听别人说链表与数组的区别:“链表适合插入、删除,时间复杂度为O(1);数组适合查找,
查找时间复杂度为O(1)”。实际上,这种表述是不准确的。数组是适合查找操作,但是查找的时间复杂度并不为O(1)。即便是排
好序的数组,你用二分查找,时间复杂度也是O(logn)。所以,正确的表述应该是:数组支持随机访问,根据下标随机访问的时间
复杂度为O(1)。

低效的“插入”和“删除”

前面概念部分我们提到,数组为了保持内存数据的连续性,会导致插入、删除这两个操作比较低效。现在我们来详细说一下,究竟
为什么会导致低效?又有哪些该井方法呢?

我们先来看插入操作:假设数组的长度为n,现在,如果我们需要将一个数据插入到数组中的第k个位置。为了把第k个位置腾
出来,给新来的数据,我们需要将k~n这部分的元素都顺序的往后挪一位。那插入操作的时间复杂度是多少呢?可以先试着分析一下。
如果在数组的末尾插入,那就不需要移动数据了,这时的时间复杂度为(1)。但如果在数组的开头插入元素,那所有的数据都需要依
次往后移动一位,所有最坏时间复杂度是O(n)。因为我们在每个位置插入元素的概率是一样的,所有平均情况时间复杂度为(1+2+…n)/
n=O(n)。

如果数组中的数据是有序的,我们在某个位置插入一个新的元素时,就必须按照刚才的方法搬移k之后的数据。但是,如果数组中存储的
数据并没有任何规律,数组只是被当作一个存储数据的集合。在这种情况下,如果要将某个数组插入到第k个位置,为了避免大规模的数据
搬移,我们还有一个简单的办法就是,直接将第k位的数据搬移到数组元素的最后,把最新的元素直接放入第k个位置。利用这种处理技巧,
在特定场景下,在第k个位置插入一个元素的时间复杂度就会降为O(1)。这个处理思想在快排中也会用到,会在排序那意接具体来讲,这里
就说到这儿。

我们再来看删除操作:跟插入数据类似,如果我们要删除第k个位置的数据,为了内存的连续性,也需要搬移数据,不然中间就会出现
空洞,内存就不连续了。和插入类似,如果删除数组末尾的数据,则最好情况时间复杂度为O(1);如果删除开头的数据,则最坏情况时间复
杂度为O(n);平均情况时间复杂度也为O(n)。实际上,在某些特殊场景下,我们并不一定非得追求数组中数据的连续性。如果我们将多次删
除操作集中在一起执行,删除的效率是不是会提高很多呢?

我们继续来看例子。数组a中存储了8个元素:a,b,c,d,e,f,g,h。现在,我们要依次删除a,b,c三个元素。为了避免d,e,f,g,h这几个数据会
搬移三次,我们可用先记录下已删除的数据。每次删除操作并不是真正的搬移数据,只是记录数组已经被删除。当数组没有更多空间存储时,
我们再触发执行一次真正的删除操作,这样就大大减少了删除操作导致的数据搬移。

如果你了解JVM,你会发现,这不就是JVM标记清除垃圾回收算法的核心思想吗?没错,数据结构和算法的魅力就在于此,很多时候我们并
不是要去死记硬背某个数据结构或者算法,而是要学习它背后的思想和处理技巧,这些东西才是最有价值的
。如果你细心留意,不管是
在软件开发还是架构设计中,总能找到某些算法和数据结构的影子。

警惕数组的访问越界问题

首先,我请你来分析一下这段C语言代码的运行结果:

  int main(int argc, char* argv[]){
       int i = 0;
       int arr[3] = {0};
       for(; i<=3; i++){
           arr[i] = 0;
           printf("hello world\n");
       }
       return 0;
   }

发现问题了吗?这段代码运行结果并非是打印三行"hello world",而是会无限打印"hello world",这是为什么呢?因为,数组大小为3,
a[0],a[1],a[2],而我们的代码因为书写错误,导致for循环的结束条件错写为了i<=3而非i<3,所有当i=3时,数组访问越界。我们知道,
只要不是访问受限的内存,所有的内存空间都是可以自由访问的。根据我们前面讲的寻址公式,a[3]也hi被定位到某块不属于数组的内存
地址上,而这个地址正好是存储变量i的内存地址,那么a[3]=0就相当于i=0,所有就会导致代码无限循环。(对于自己动手,但是结果不同的
同学,可以阅读GCC中的编译器堆栈保护技术
这篇文章找到答案)。

数组越界在C语言中是一种未决行为,并没有归档数组访问越界时编译器应该如何处理。因为,访问数组的本质就是访问一段连续内存,只要数组
通过偏移计算得到的内存地址是可用的,那么呈现就可能不会报任何错误。这种情况下,一般都会出现莫名其妙的逻辑错误,就像我们刚刚举的那
个例子,debug的难度非常的大。而且,很多计算机病毒也正是利用了代码中的数组越界可以访问非发地址的漏洞,来攻击系统,所有写代码的时候
一定要警惕数组越界。但并非所有的语言都像C一样,把数组越界检查的工作丢给程序员来做,像Golang本身就会做越界检查,例如:

func main() {
	arr := [3]int{0}
	arr[3] = 10
}

//invalid array index 3 (out of bounds for 3-element array)

容器能否完全替代数组

针对数组类型,很多语言都提供了容器类,比如Java中的ArrayList、C++STL中的vector、Go中的slice。在项目开发中,什么时候适合用数组,
什么适合适合用容器呢?其实容器最大的一个优势就是支持动态扩容

数组本身就在定义的适合需要预先指定大小,因为需要分配连续的内存空间。如果我们申请了大小为10的数组,当第11个数据需要存储到数组中时,
我们就需要重新分配一块更大的空间,将原来的数据复制过去,然后再将新的数据插入。例如ArrayList就会将空间自动扩容为1.5倍大小。Slice则是
在len<1024的时候,自动扩容2倍;当len>=1024的时候,每次自动扩容1.25倍。不过,这里需要注意一点。因为扩容操作涉及内存申请和数据搬移,是
比较耗时的。所以,如果事先能确定好需要存储的数据大小,最好在创建的时候预先指定数据大小

作为高级语言编程者,是不是数组就无用武之地了呢?当然不是,有些时候,用数组会更合适些,我(作者)总结了几点自己的经验:

  1. Java ArrayList无法存储基本类型,比如int、long,需要封装为Integer、Long类,而Autoboxing、Unboxing则有一定的性能消耗,所以如果特别关注
    性能,或者希望适用基本类型,就可以选用数组。
  2. 如果数据大小事先已知,并且对数据的操作非常简单,用不到ArrayList提供的大部分方法,也可以直接适用数组
  3. 还有一个是我(作者)个人的喜好,当要表示多维数组时,用数组往往会更加直观。比如Object[][] array;而用容器的话则需要这样定义:
    ArrayList<ArrayList> array

这里总结一下,对于业务开发,直接适用容器就足够了,省时省力。毕竟耗损一丢丢性能,完全不会影响到系统整体的性能。但如果你是做一些非常底层的开发,
比如开发网络框架,性能的优化需要做到极致,这个时候数组就会优于容器,成为首选。

解答开篇

现在我们来思考开篇的问题:为什么大多数编程语言中,数组要从0开始编号,而不是从1开始呢?

从数组存储的模型来看,“下标”最确切的定义应该是“偏移(offset)”。前面也讲到,如果用a来表示数组的首地址,a[0]就是偏移为0的位置,也就是首地址,
a[k]就表示偏移k个type_size的位置,所以计算a[k]的内存地址只需要用这个公式:

a[k]_address = base_address + k * type_size

但如果数组从1开始计数,那我们计算数组元素a[k]的内存地址就会变为:

a[k]_address = base_address + (k-1) * type_size

对比两个公式,我们不难发现,从1开始编号,每次随机访问数组元素都多了一次减去运算,对于CPU来说,就是多了一次减法指令。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值