算法笔记(二):数组

目录

为什么数组要从 0 开始编号,而不是从 1 开始呢?

数组是如何实现根据下标随机访问数组元素?

数组和链表的区别?

插入操作

删除操作


  • 数组是最基础、最简单的数据结构。
  • 数组用一块连续的内存空间,来存储相同类型的一组数据,最大的特点就是支持随机访问,但插入、删除操作也因此变得比较低效,平均情况时间复杂度为 O(n)。
  • 平时业务开发可以直接使用编程语言提供的容器类,但特别底层的开发使用数组可能会更合适。

 

为什么数组要从 0 开始编号,而不是从 1 开始呢?

从数组存储的内存模型上来看,“下标”最确切的定义应该是“偏移(offset)”。从 1 开始编号,每次随机访问数组元素都多了一次减法运算。数组作为非常基础的数据结构,通过下标随机访问数组元素又是其非常基础的编程操作,效率的优化就要尽可能做到极致。所以为了减少一次减法操作,数组选择了从 0 开始编号,而不是从 1 开始。

如果用 a 来表示数组的首地址,a[0] 就是偏移为 0 的位置【首地址】,a[k] 就表示偏移 k 个 type_size 的位置,所以计算 a[k] 的内存地址只需要用这个公式:

a[k]_address = base_address + k * type_size

 如果数组从 1 开始计数,那我们计算数组元素 a[k] 的内存地址就会变为:

a[k]_address = base_address + (k-1)*type_size

 

  • 数组(Array)是一种线性表数据结构。它用一组连续的内存空间,来存储一组具有相同类型的数据。;除了数组,链表、队列、栈等也是线性表结构。二叉树、堆、图等是非线性表,在非线性表中,数据之间并不是简单的前后关系。
  • 连续的内存空间和相同类型的数据;由于这两个限制,才使数组具备了随机访问的特性;同时让数组的插入和删除操作变得非常低效,

 

数组是如何实现根据下标随机访问数组元素?

计算机会给每个内存单元分配一个地址,并通过地址来访问内存中的数据。当计算机需要随机访问数组中的某个元素时,它会首先通过下面的寻址公式,计算出该元素存储的内存地址;其中 data_type_size 表示数组中每个元素的大小。

a[i]_address = base_address + i * data_type_size

当数组中存储的是 int 类型数据时 data_type_size 为 4 个字节。

 

数组和链表的区别?

  • 错误的答案:“链表适合插入、删除,时间复杂度 O(1);数组适合查找,查找时间复杂度为 O(1)”。
  • 数组是适合查找操作,但是查找的时间复杂度并不为 O(1)。即便是排好序的数组用二分查找的时间复杂度也是 O(logn)。所以,正确的表述应该是,数组支持随机访问,根据下标随机访问的时间复杂度为 O(1)。

插入操作

假设数组的长度为 n,如果将一个数据插入到数组中的第 k 个位置。为了把第 k 个位置腾出来,给新来的数据,我们需要将第 k~n 这部分的元素都顺序地往后挪一位。

插入操作的时间复杂度:

  1. 如果数组中的数据是有序的:在数组的末尾插入元素为 O(1)【最好】;在数组的开头插入元素为O(n)【最坏】,在每个位置插入元素的概率一样,所以平均时间复杂度为 (1+2+…n)/n=O(n)。
  2. 如果数组中存储的数据并没有任何规律: 一个简单方法就是,直接将第 k 位的数据搬移到数组元素的最后,把新的元素直接放入第 k 个位置。在特定场景下,在第 k 个位置插入一个元素的时间复杂度就会降为 O(1)。在快排中也会用到这个处理思想。

删除操作

和插入类似,如果删除数组末尾的数据,则最好情况时间复杂度为 O(1);如果删除开头的数据,则最坏情况时间复杂度为 O(n);平均情况时间复杂度也为 O(n)。

   多次删除集中在一起,提高删除效率,并不一定非得追求数组中数据的连续性。

先记录下已经删除的数据。每次的删除操作并不是真正地搬移数据,只是记录数据已经被删除。当数组没有更多空间存储数据时,我们再触发执行一次真正的删除操作,大大减少了删除操作导致的数据搬移。【JVM 标记清除垃圾回收算法的核心思想】

数组访问越界造成无限循环

【暂时不理解,先记下来】

写代码的时候一定要警惕数组越界。在 C 语言中只要不是访问受限的内存,所有的内存空间都是可以自由访问的。没有规定数组访问越界时编译器应该如何处理。访问数组的本质就是访问一段连续内存,只要数组通过偏移计算得到的内存地址是可用的,那么程序就可能不会报任何错误。而Java 会做越界检查。

去查函数调用的栈桢结构细节;函数体内的局部变量存在栈上,且是连续压栈。在Linux进程的内存布局中,栈区在高地址空间,从高向低增长。变量i和arr在相邻地址,且i比arr的地址大,所以arr越界正好访问到i。当然,前提是i和arr元素同类型,否则那段代码仍是未决行为。

跟编译器分配内存和字节对齐有关 数组3个元素 加上一个变量a 。4个整数刚好能满足8字节对齐 所以i的地址恰好跟着a2后面 导致死循环。。如果数组本身有4个元素 则这里不会出现死循环。。因为编译器64位操作系统下 默认会进行8字节对齐 变量i的地址就不紧跟着数组后面了。

gcc有一个编译选项(-fno-stack-protector)用于关闭堆栈保护功能。默认情况下启动了堆栈保护,不管i声明在前还是在后,i都会在数组之后压栈,只会循环4次;如果关闭堆栈保护功能,则会出现死循环。

 

在项目开发中,什么时候适合用数组,什么时候适合用容器呢?

Java 中的 ArrayList、C++ STL 中的 vector都是容器类。对于业务开发用容器就OK了;做底层开发如网络框架、性能优化时,数组就会优于容器。

  1. ArrayList 最大的优势就是可以将很多数组操作的细节封装起来并且支持动态扩容。每次存储空间不够的时候,它都会将空间自动扩容为 1.5 倍大小。扩容操作涉及的内存申请和数据搬移比较耗时;如果事先能确定需要存储的数据大小,最好在创建 ArrayList 的时候事先指定数据大小。’
  2. ArrayList 无法存储基本类型如 int、long,需要封装为 Integer、Long 类,而 Autoboxing、Unboxing 则有一定的性能消耗,所以如果特别关注性能,或者希望使用基本类型,就可以选用数组
  3.  如果数据大小事先已知,并且对数据的操作非常简单,用不到 ArrayList 提供的大部分方法,可以直接使用数组。
  4. 当要表示多维数组时,用数组会更加直观。比如 Object[][] array;而用容器则需定义为:ArrayList<ArrayList> array。

 思考; 二维数组的内存寻址公式是怎样的呢?如何理解标记清除垃圾回收算法?

  • JVM标记清除算法:

    大多数主流虚拟机采用可达性分析算法来判断对象是否存活,在标记阶段,会遍历所有 GC ROOTS,将所有 GC ROOTS 可达的对象标记为存活。只有当标记工作完成后,清理工作才会开始。

    不足:1.效率问题。标记和清理效率都不高,但是当知道只有少量垃圾产生时会很高效。2.空间问题。会产生不连续的内存空间碎片。
  • 二维数组内存寻址:

    对于 m * n 的数组,a [ i ][ j ] (i < m,j < n)的地址为:

    address = base_address + ( i * n + j) * type_size
  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值