八股文--操作系统篇

参考:https://leetcode-cn.com/circle/discuss/zIxrWn/

内核空间和用户空间;为啥要这么区分

其实所有的系统资源管理都是在内核空间中完成的。比如读写磁盘文件,分配回收内存,从网络接口读写数据等等。

其实就是通过一个特殊的指令让进程从用户态进入到内核态(到了内核空间),在内核空间中,CPU 可以执行任何的指令,当然也包括从磁盘上读取数据。具体过程是先把数据读取到内核空间中,然后再把数据拷贝到用户空间并从内核态切换到用户态。

对于一个进程来讲,从用户空间进入内核空间并最终返回到用户空间,这个过程是十分复杂的。举个例子,比如我们经常接触的概念 “堆栈”,其实进程在内核态和用户态各有一个堆栈。

运行在用户空间时进程使用的是用户空间中的堆栈,而运行在内核空间时,进程使用的是内核空间中的堆栈。所以说,Linux 中每个进程有两个栈,分别用于用户态和内核态。

现代的操作系统大都通过内核空间和用户空间的设计来保护操作系统自身的安全性和稳定性。

虚拟地址和物理地址的关系?为什么要这样分?

参考

虚拟内存实际上是操作系统对于内存管理的一种方式,比如说,对每个程序而言,它的内存编址都从0x00到0xff,但是实际上,这些内存对应的物理地址,应用程序本身是无法知道的,在这里就可以理解成操作系统对内存管理的一层抽象。

而且虚拟内存也是一种有效的进程间隔离的方式,极大的提升了进程的安全性和操作系统的稳定性,也就是我一个进程不管做什么,都是在它自己的地址空间里做的,不会影响到其他进程和OS。

而具体怎么把这些虚拟地址对应到物理地址上,这是操作系统做的事情。操作系统对每一个进程有一个进程控制块,叫PCB,Process Control Block,里边存储了每一个进程的进程信息,比如说寄存器,file descriptor,还有我们最关心的内存映射信息。每一个进程有一个递增的id号,叫pid,也就是Process IDentifier.

如何把虚拟地址映射到物理地址。从程序的角度来看,从malloc开始讲起,比如,在某一时刻,一个进程调用了malloc,在堆(heap)上申请了2bits的空间。实际上这个行为的流程是,程序调用malloc,进入内核模式之后,调用mmap,如果成功,操作系统会从物理地址上取一块2bits的内存,交给应用程序编入虚拟地址空间。更详细一点说,每个进程对内存管理是一个红黑树的结构,也就是说,在每一个进程的PCB,里维护了一颗红黑树,然后动态的将所有的新分配的内存加到这个红黑树里边,以保证程序对每一块内存的访问时间是差不多的。然后不知道你们教材中有没有提到页表(page table),页表也是PCB中的一项,你们教材中应该会对页表有详细的讲解,将如何对内存的地址进行换算,之类的。然后你要明确,页表实际上是红黑树的cache,这样可以加速程序对于常用的内存的访问速度。

我在背景2中说,两个程序都看到自己有16个bit的虚拟地址,总共有32bit,但是实际上硬件只有16bits,也就是说,不管你在红黑树和页表中怎么映射,一定会有冲突发生,比如,可能物理地址的0x02对应了进程1中的0x04,又在进程2的PCB中映射到了pid2的虚拟地址位0x06上。操作系统如何解决这个矛盾呢,首先在进程pid 1运行的时候,这个0x02对应的是pid1中的0x04;然后这个时候进程切换发生了,pid 2开始运行。当pid2需要用到它的0x04时,os发现0x02这个地址在pid1中也有映射,于是它就把0x02这个地址上的内容存到硬盘上的一个叫swap的空间内,然后把这个地址交给pid2使用。这样就达到了扩大虚拟地址的效果。

什么是分段机制和分页机制?

链接

分段机制就是把虚拟地址空间中的虚拟内存组织成一些长度可变的称为段的内存块单元。段可以用来存放程序的代码、数据和堆栈,或者用来存放系统数据结构。我们平时跑的程序说的程序的内存空间。

我们知道,虚拟地址其实并不真实存在,虚拟地址要通过cache和页表去映射到我们的物理地址,而页表能够加快映射速度的一个存在。页表分为一级页表、二级页面、三级页表(多级页表)等,一级页表存储的是二级页表索引,二级页表存储三级页表索引…大大加快了虚拟地址到物理地址查找速度。

LRU算法实现原理?

链接
hashmap + 双向链表

为什么要使用双向链表? 因为只有双向链表才能直接拿到链表尾部元素,单项链表拿到链表尾部元素需要遍历一次。
在这里插入图片描述

内核态和用户态,系统调用

在这里插入图片描述
如果我们需要这些功能的时候,需要通过系统调用先陷入到内核态中。不过在陷入之前,系统调用入口要对我们执行严格的安检。
在这里插入图片描述

如何避免死锁

链接
加锁顺序、加锁时限,死锁检测
1、通过固定的上锁顺序,比如所有线程都是按照拿到锁A、B、C的顺序上锁,这样上锁不会形成环。
2、通过设置获取锁的时间上限控制死锁,就是若限制时间内无法拿到锁,则放弃争抢锁,并回退和释放所有的锁,然后等待一段随机的时间再重试。
3、每当一个线程获得了锁,会在线程和锁相关的数据结构中(map、graph等等)将其记下。除此之外,每当有线程请求锁,也需要记录在这个数据结构中。
当一个线程请求锁失败时,这个线程可以遍历锁的关系图看看是否有死锁发生。例如,线程A请求锁7,但是锁7这个时候被线程B持有,这时线程A就可以检查一下线程B是否已经请求了线程A当前所持有的锁。如果线程B确实有这样的请求,那么就是发生了死锁(线程A拥有锁1,请求锁7;线程B拥有锁7,请求锁1)。

I/O 多路复用,select / poll / epoll 详解

链接
链接

阻塞 I/O,是指进程发起调用后,会被挂起(阻塞),直到收到数据再返回。如果调用一直不返回,进程就会一直被挂起。因此,当使用阻塞 I/O 时,需要使用多线程来处理多个文件描述符。

多线程切换有一定的开销,因此引入非阻塞 I/O。非阻塞 I/O 不会将进程挂起,调用时会立即返回成功或错误,因此可以在一个线程里轮询多个文件描述符是否就绪。

但是非阻塞 I/O 的缺点是:每次发起系统调用,只能检查一个文件描述符是否就绪。当文件描述符很多时,系统调用的成本很高。

因此引入了 I/O 多路复用,可以通过一次系统调用,检查多个文件描述符的状态。这是 I/O 多路复用的主要优点,相比于非阻塞 I/O,在文件描述符较多的场景下,避免了频繁的用户态和内核态的切换,减少了系统调用的开销。

I/O 多路复用相当于将「遍历所有文件描述符、通过非阻塞 I/O 查看其是否就绪」的过程从用户线程移到了内核中,由内核来负责轮询。

进程可以通过 select、poll、epoll 发起 I/O 多路复用的系统调用,这些系统调用都是同步阻塞的:如果传入的多个文件描述符中,有描述符就绪,则返回就绪的描述符;否则如果所有文件描述符都未就绪,就阻塞调用进程,直到某个描述符就绪,或者阻塞时长超过设置的 timeout 后,再返回。使用非阻塞 I/O 检查每个描述符的就绪状态。

(1)select==>时间复杂度O(n)

它仅仅知道了,有I/O事件发生了,却并不知道是哪那几个流(可能有一个,多个,甚至全部),我们只能无差别轮询所有流,找出能读出数据,或者写入数据的流,对他们进行操作。所以select具有O(n)的无差别轮询复杂度,同时处理的流越多,无差别轮询时间就越长。

(2)poll==>时间复杂度O(n)

poll本质上和select没有区别,它将用户传入的数组拷贝到内核空间,然后查询每个fd对应的设备状态, 但是它没有最大连接数的限制,原因是它是基于链表来存储的.

(3)epoll==>时间复杂度O(1)

epoll可以理解为event poll,不同于忙轮询和无差别轮询,epoll会把哪个流发生了怎样的I/O事件通知我们。所以我们说epoll实际上是事件驱动(每个事件关联上fd)的,此时我们对这些流的操作都是有意义的。(复杂度降低到了O(1))

在这里插入图片描述

如何排查死锁?

知乎
1、使用top拿到java文件的pid
1、使用top 查看top -Hp pid 查看最耗时的线程的pid
2、通过 pid 得到 java运行文件地址(printf “%x\n” pid)
3、jstack pid| grep 54ee(文件地址) 查看具体的代码地址

  • 0
    点赞
  • 28
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值