数据结构(一)数组

数组作为一种基础数据结构,其从0开始编号的设计是出于效率考虑。数组使用连续内存空间存储相同类型数据,允许随机访问,时间复杂度为O(1)。虽然插入和删除操作可能导致效率降低,但在特定场景下有优化策略。理解数组的工作原理对于提升编程效率至关重要。
摘要由CSDN通过智能技术生成

概述

说起数组我们都不陌生,几乎在每一种编程语言中,基本上都会有数组这种数据类型。不仅如此它还是是最基础最简单的数据结构。尽管如此,可能还是有一些人并没有真正的理解这个基础数据结构的精髓所在。

首先,我们都知道,在java中数组是从 0 开始编号的,但是为什么数组要从 0 开始编号,而不是从 1 开始呢?从 1 开始不是更加的符合人类的思维方式吗?

定义

数组(Array)是一种线性表数据结构。它用一组连续的内存空间,来存储一组具有相同类型的数据。

首先,定义中有几个关键词,需要我们关注一下。理解了这几个关键词,有助于我们彻底理解数组这个数据结构。

第一就是线性表。线性表就是数据排成像一条线一样的结构。每个线性表上的数据最多只有前和后两个方向。其实除了数组,链表、队列、栈等也是线性表结构。

而与它相对应的概念就是非线性表,比如二叉树、堆、图等。之所以称为非线性,是因为,在非线性表中,数据之间并不是简单的前后关系。

第二个关键词是连续的内存空间和相同类型的数据。正是因为这两个限制,它才有了一个堪称 “杀手锏” 的特性:“随机访问”。但有利就有弊,这两个限制也让数组的很多操作变得效率很低,比如想要在数组中删除、插入一个数据,为了保证物理空间的连续性,就需要做大量的数据搬移的工作。

说到数据的访问,我们需要思考一下数组是如何实现根据下标随机访问数组元素的?

我们拿一个长度为 10 的 int 型的数组 int[] a = new int[10] 来举例。在下图中,计算机系统给数组 a[10],分配了一块连续内存空间 1000 ~ 1039,其中,内存块的首地址为 base_address = 1000。

 我们知道,计算机会给每个内存单元分配一个地址,计算机通过地址来访问内存中的数据。当计算机需要随机访问数组中的某个元素是,它会首先通过下面的寻址公式,计算出该元素存储的内存地址:

a[i]_address = base_address + i * data_type_size

其中,data_type_size 表示数组中每个元素的大小。因为数组 a 中存储的是 int 类型的数据,所以 data_type_size就为 4 个字节。

提到数组和链表的区别,很多人都会说,“链表适合插入、删除,时间复杂度为 O(1);数组适合查找,查找时间复杂度为 O(1)”。

实际上,这种表述是不准确的。数组是适合查找操作,但是查找的时间复杂度并不是 O(1)。即便是排好序的数组,用二分查找,时间复杂度也是 O(logn)。所以,正确的表述应该是,数组支持随机访问,根据下标随机访问的时间复杂度为 O(1)。

数组中低效的 “插入” 和 “删除”

数组为了保持内存数据的连续性,会导致插入、删除这两个操作比较低效。原因如下:

插入操作

假设数组的长度为 n ,现在,如果我们需要将一个数据插入到数组中的第 k 个位置。为了把第 k 个位置腾出来,给新来的数据,我们需要将第 k ~ n 这部分的元素都顺序地往后挪一位。那插入操作的时间复杂度是多少呢?我们可以分析一下。

如果在数组的末尾插入元素,那就不需要移动数据了,这时的时间复杂度为 O(1)。但如果在数组的开头插入元素,那所有的数据都需要依次往后移动一位,所以最坏的时间复杂度是 O(n)。因为我们每个位置插入元素的概率是一样的,所以平均情况时间复杂度为 (1+2+3+4+....+n) / n = O(n)。

如果数组中的数据是有序的,我们在某个位置插入一个新的元素时,就必要按照刚才的方法搬移 k 之后的数据。但是,如果数组中存储的数据并没有任何规律,数组只是被当作一个存储数据的集合。在这种情况下,如果要将某个数据插入到第 k 个位置,为了避免大规模的数据搬移,我们还有一个简单的办法就是,直接将第 k 位的数据搬移到数组元素的最后,把新的元素直接放入到第 k 个位置。

我们举例如下:假设数组 a[10] 中存储了如下 5 个元素:a,  b,  c,  d,  e。

现在需要将元素 x 插入到第三个位置。我们只需要将 c 放入到 a[5],将 a[2] 赋值为 x 即可。最后,数组中的元素如下:a,  b,  x,  d,  e,  c。

利用这种技巧,在特定场景下,在第 k 个位置插入一个元素的时间复杂度就会降为 O(1)。

删除操作

跟插入数据类似,如果我们要删除第 k 个位置的数据,为了内存的连续性,也需要搬移数据,不然中间就会出现空隔,内存就不连续了。

和插入类似,如果删除数组末尾的数据,则最好情况时间复杂度为 O(1);如果删除开头的数据,则最坏时间复杂度为 O(n);平均情况时间复杂度也为 O(n)。

实际上,在某些特定场景下,我们并不一定非得追求数组中数据的连续性。如果们将多次删除操作集中在一起执行,删除的效率是不是会提高很多呢?

我们继续来看例子。数组 a[10] 中存储了 8 个元素:a,b,c,d,e,f,g,h。现在,我们要依次删除 a,b,c 这三个元素。

为了避免 d,e,f,g,h 这几个数据会被搬移三次,我们可以先记录下已经删除的数据。每次的删除操作并不是真正的搬移数据,只是记录数据已经被删除。当数组没有更多空间存储数据时,我们再触发一次真正的删除操作,这样就大大减少了删除操作导致的数据搬移。

其实,这种处理删除操作的逻辑,就是 JVM 标记清除垃圾回收算法的核心思想。

数组为什么从 0 开始编号?

从数组存储的内存模型上来看,“下标” 最确切的定义应该是 “偏移(offset)”。如果用 a 来表示数组的首地址,a[0] 就是偏移为 0 的位置,也就是首地址,a[k] 就表示偏移 k 个 type_size 的位置,所以计算 a[k] 的内存地址只需要用这个公式:

a[k]_address = base_address + k * data_type_size

但是,如果数组从 1 开始计数,那我们计算数组元素 a[k] 的内存地址就会变为:

a[k]_address = base_address + (k - 1) * data_type_size

上述两个公式,从 1 开始编号,每次随机访问数组元素都多了一次减法运算,对于 CPU 来说,就是多了一次减法指令。

数组作为非常基础的数据解耦股,通过下标随机访问数组元素又是其非常基础的编程操作,效率的优化肯定就要尽可能的做到极致。素以为了减少一次减法操作,数组选择了从 0 开始编号,而不是从 1 开始。

本文来自极客时间 - 数据结构与算法之美专栏。特此感谢。

版权所有:https://time.geekbang.org/column/article/40961

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值