linux 的零拷贝

linux 的零拷贝

1、传统数据交互

传统 io 的执行流程

  • read:将数据从 IO 设备读取到内核缓存区中,再将数据从内核缓冲区拷贝到用户缓冲区
  • write:将数据从用户缓冲区写入到内核缓冲区中,再将数据从内核缓冲区拷贝到 IO 设备

read/write 属于系统调用 syscall,每一次系统调用 ,发生两次上下文切换

  • 调用 syscall 从用户态切换到内核态
  • syscall 返回从内核态切换到用户态

如图所示,传统 io 的过程中,发生了4次空间切换 + 4次拷贝

在这里插入图片描述

不难看出,传统模式下的IO,涉及多次空间切换和数据冗余拷贝,效率并不高。而零拷贝 Zero-Copy 目的就是降低冗余数据拷贝,解放 CPU

  • 减少数据在内核缓冲区和用户缓冲区之间的冗余拷贝(CPU拷贝)
  • 减少系统调用导致的空间切换

目前来看,零拷贝技术的实现手段主要包括:mmap+write、sendfile、sendfile+DMA、splice

2、零拷贝

2.1、mmap

内存映射 memory mapping, mmap 是 linux 提供的内存映射文件的机制,将一个虚拟内存区域与一个磁盘上的对象(普通文件或匿名文件)关联起来。

可以将内核读缓冲区地址与用户缓冲区地址进行映射,实现内核缓冲区与用户缓冲区的共享。这样就减少了一次用户态和内核态的CPU拷贝。

mmap + write 流程如图所示,发生了4次切换 + 2次DMA拷贝 + 1次CPU拷贝
在这里插入图片描述

函数原型

#include <sys/mman.h>
// 内存映射
void* mmap(void* start, size_t length, int prot, int flags, int fd, off_t offset);

// 解除映射
int munmap(void *addr, size_t length);

函数参数:

  • start:指定映射的虚拟内存地址,通常定义为 NULL,由内核选定地址

  • length:映射的长度

  • prot:描述映射内存的访问权限

    PROT_EXEC页面可以被 cpu 执行指令组成,PROT_NONE 页面不能访问

    PROT_READ 页面可读,PROT_WRITE 页面可写,

  • flags:指定映射的类型,MAP_SHARED共享对象,MAP_PRIVATE私有的,写时复制对象

  • fd:要进行映射的文件句柄

  • offset:文件偏移量

例:
发送方

// 建立内存映射
char *pMap = (char*) mmap (NULL, fileInfo.st_size, PROT_READ|PROT_WRITE, MAP_SHARED, fd, 0); 

send(clientFd, pMap, fileInfo.st_size, 0);

// 解除映射
munmap(pMap, fileInfo.st_size); 

接收方

// 使用 mmap 前用使用 ftruncate 来扩大文件大小
ftruncate(fd, fileSize);
char *pMap = (char*) mmap (NULL, fileSize, PROT_READ|PROT_WRITE, MAP_SHARED, fd, 0);

recvCycle(sfd, pMap, fileSize);
munmap(pMap, fileSize);

mmap 存在的问题:mmap 对大文件传输有一定优势,但是小文件可能出现碎片,并且在多个进程同时操作文件时可能产生引发 coredump 的 signal。

2.2、sendfile

mmap+write 方式有一定改进,但是由系统调用引起的状态切换并没有减少,因此在 Linux 内核2.1版本中引入了 sendfile 系统调用。

sendfile 在两个文件之间通过内核直接传输数据,避免了内核缓冲区和用户缓冲区之间的数据拷贝操作。sendfile 只能用于发送数据,不能用于接收数据。

sendfile 方式只使用一个函数就可以完成之前的 read+write 和 mmap+write 的功能,这样减少一个系统调用(2次状态切换),由于数据不经过用户缓冲区,因此该数据无法被修改。

sendfile 的流程如图所示, 发生了2次切换 + 2次DMA拷贝+1次CPU拷贝
在这里插入图片描述
linux2.4版本后,对 sendfile 系统调用进行优化,配合硬件 DMA,可以直接从内核空间缓冲区中将数据拷贝到网卡,彻底省去了CPU拷贝。

如图所示,sendfile + DMA 的过程中发生了2次切换 + 2次DMA拷贝 + 0次CPU拷贝
在这里插入图片描述

sendfile 函数原型

#include <sys/sendfile.h>
ssize_t sendfile(int out_fd, int in_fd, off_t *offset, size_t count);

/*
参数
- out_fd:待写入内容的文件描述符
- in_fd:待读出内容的文件描述符
- offset:文件偏移量
- count:传输的字节数
*/

sendfile(clientFd, fd, 0, fileInfo.st_size);

sendfile 存在的问题:无法对数据进行修改,并且需要硬件层面DMA的支持,并且 sendfile 只能将文件数据拷贝到 socketfd,有一定的局限性。

2.3、splice

splice 系统调用在 Linux 2.6 版本引入,不需要硬件支持,并且不再限定于 socket 上,实现了两个普通文件之间的数据零拷贝。

可以在内核缓冲区和 socket 缓冲区间建立管道来传输数据,避免了两者之间的 CPU 拷贝操作。
在这里插入图片描述

函数原型

#define _GNU_SOURCE 
#include <fcntl.h>

ssize_t splice(int fd_in, loff_t *off_in, int fd_out, loff_t *off_out, size_t len, unsigned int flags);

/*
返回值;成功返回接收到的字节数,失败-1

参数
- fd_in:待输入数据的文件描述符。
- off_in: 输入流偏移量。若 fd_in 是管道文件描述符,则设置为 NULL,表示从当前偏移读入。   否则,off_in 表示从输入数据流的某处开始读取。
- fd_out:待输出数据的文件描述符。
- off_out:输出流偏移量,同上。
- len:单次写入的数据长度,最多65536
- flags:0
*/

例:服务器端代码: transFile.c

int fds[2];
pipe(fds);

int recvLen = 0;
//当读到的数据量超过文件大小时,即已经读取数据完成
while(recvLen < fileInfo.st_size){
    //将数据从服务器端本地读到管道
    ret = splice(fd, 0, fds[1], 0, 65536, 0);
    //将数据从管道读到客户端
    ret = splice(fds[0], 0, clientFd, 0, ret, 0);
    //计算已经读到的数据量
    recvLen += ret;
}

splice 存在的问题:它的两个文件描述符中有一个必须是管道设备

3、零拷贝的问题

  • 数据传输的瓶颈在于网络带宽,而不是数据的拷贝速度。
  • mmap 和 sendfile 不能传输超过 2GB 的文件
  • 零拷贝接口可移植性差

4、参考

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值