计算机网络(4): BIO服务模型原理

BIO代码

在讲BIO的时候,一直说BIO即阻塞式IO,那么什么是阻塞,是怎么实现的呢?以下面的demo为例

​
ServerSocket serverSocket = new ServerSocket(6666);
 
        while(true) {
            System.out.println("开始接受连接");
            final Socket socket = serverSocket.accept();
            System.out.println("接受连接成功");
            final byte[] buffer = new byte[1024];
 
            new Thread(() -> {
                try {
                    InputStream is = null;
                    is = socket.getInputStream();
                    BufferedReader br = new BufferedReader(new InputStreamReader(is));
                    while (true) {
                        String str = br.readLine();
                        System.out.println(str);
                    }
                } catch (Exception e) {
                    e.printStackTrace();
                }
            }).start();
        }

上面是用java实现服务的一个demo:先创建一个serverSocket,然后通过accept方法进行监听客户端的连接,如果有客户端连接上来,就会创建一个socket套接字,然后通过read函数读取数据包的该进程空间。整个过程有两个阻塞点,其中一个是accpet,这里会阻塞,一直等到有客户端连接上来,另一个阻塞点是read,这里指的就是readLine函数,也就是说客户端连接上之后,如果不发数据,服务端会一直在read函处阻塞等待。

读阻塞​

究竟什么是阻塞呢?可以参考https://mp.weixin.qq.com/s/jtOVQpGaMOzHIDgrxErrvQ 这篇文章,read函数,底层就是调用的系统调用**sys_read**,内核中内底层有这样一段代码
if (EMPTY (tty->secondary)) {
 sleep_if_empty (&tty->secondary);
}

再深入函数

static void sleep_if_empty (struct tty_queue *queue) {
 // 关中断
 cli ();
 // 只要队列为空
 while (EMPTY (*queue))
   // 可中断睡眠
   interruptible_sleep_on (&queue->proc_list);
 // 开中断
 sti ();
}

继续跟进interruptible_sleep_on

void interruptible_sleep_on (struct task_struct **p) {
 ...
 current->state = TASK_INTERRUPTIBLE;
 schedule ();
 ...
}

在该函数中,可以明显看出来,将当前线程的状态设置为可中断的等待状态,同时调用schedule() 函数,强制进行一次进程调度。在进程调度算法中,再选择某个线程时,由于当前线程状态不是可运行状态,所以就不会调度到当前线程,这样也就意味着当前线程处于阻塞态了,这就是阻塞的本质。

网络包处理

聊聊Netty那些事儿之从内核角度看IO模型-51CTO.COM 这篇文章讲的很不错,并盗图一张

当内核收到网卡发来的数据包后,操作系统需要确定将数据包拷贝到哪个套接字(socket)的缓冲区中。这涉及到内核中的套接字数据结构以及数据包的目的地址等元数据。

在Linux内核中,每个套接字都有一个相关的套接字数据结构,其中包含了套接字的状态信息、缓冲区指针等。当内核接收到数据包时,它会使用一系列的操作来确定目标套接字,并将数据包复制到相应的缓冲区中。以下是大致的过程:

  • 当网络数据帧通过网络传输到达网卡时,网卡会将网络数据帧通过DMA的方式放到环形缓冲区RingBuffer中。

  • 当DMA操作完成时,网卡会向CPU发起一个硬中断,告诉CPU有网络数据到达。CPU调用网卡驱动注册的硬中断响应程序。网卡硬中断响应程序会为网络数据帧创建内核数据结构sk_buffer,并将网络数据帧拷贝到sk_buffer中。然后发起软中断请求,通知内核有新的网络数据帧到达。

  • 内核线程ksoftirqd发现有软中断请求到来,随后调用网卡驱动注册的poll函数,poll函数将sk_buffer中的网络数据包送到内核协议栈中注册的ip_rcv函数中。每个CPU会绑定一个ksoftirqd内核线程专门用来处理软中断响应。

  • 在ip_rcv函数中也就是上图中的网络层,取出数据包的IP头,判断该数据包下一跳的走向,如果数据包是发送给本机的,则取出传输层的协议类型(TCP或者UDP),并去掉数据包的IP头,将数据包交给上图中得传输层处理。传输层的处理函数:TCP协议对应内核协议栈中注册的tcp_rcv函数,UDP协议对应内核协议栈中注册的udp_rcv函数。

  • 当我们采用的是TCP协议时,数据包到达传输层时,会在内核协议栈中的tcp_rcv函数处理,在tcp_rcv函数中去掉TCP头,根据四元组(源IP,源端口,目的IP,目的端口)查找对应的Socket。在Linux内核中,套接字数据结构通常以哈希表或其他数据结构的形式组织,以便高效地查找目标套接字。如果找到对应的Socket则将网络数据包中的传输数据拷贝到Socket中的接收缓冲区中。如果没有找到,则发送一个目标不可达的icmp包。

虽然传输过来之前,线程是阻塞的,不占用CPU时间,但是线程本身也会占用资源,一个操作系统不太会无限制扩展线程数量,并且当数据到达的时候,阻塞的线程还是会被唤醒,这样就导致操作系统需要在大量的线程间进行切换。

参考:

聊聊Netty那些事儿之从内核角度看IO模型-51CTO.COM

 

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值