linux关于epoll概述(各项组成,以及作用)

3 篇文章 0 订阅

epoll 的优势:

效率:  epoll 通过内核和用户空间共享数据结构来减少数据复制的开销。

可伸缩性:  epoll 可以高效地处理成千上万的并发连接,而传统的 select 和 poll 在大量连接时性能会急剧下降。

资源占用:  与传统方法相比,epoll 在处理大量 FD 时占用的资源更少。

优势主要来自于它的设计原理和实现方式

以下是具体的解释:

1. 效率:减少数据复制

  • 内核与用户空间共享数据结构epoll 使用了一个内核和用户空间共享的数据结构(红黑树和就绪列表),内核可以直接在这个结构上工作,而不需要复制数据到用户空间。这减少了数据复制的开销,尤其是在大量事件通知时。

  • 事件驱动epoll 仅通知那些实际有事件发生的 FD,而不是像 selectpoll 那样轮询所有注册的 FD,无论它们是否有事件发生。

2. 可伸缩性:高效处理大量并发连接

  • 水平触发与边缘触发epoll 支持水平触发(LT)和边缘触发(ET)模式。边缘触发模式只在状态变化时通知应用程序,这减少了不必要的通知和处理,特别是在高负载情况下。

  • 就绪列表epoll 维护了一个就绪列表,其中包含了所有准备好进行 I/O 操作的 FD。当调用 epoll_wait() 时,内核会直接提供这个就绪列表,而不需要应用程序遍历所有注册的 FD。

  • 非阻塞 I/Oepoll 通常与非阻塞 I/O 一起使用,这允许应用程序在单个线程中处理大量并发连接,而不需要为每个连接创建线程或进程。

3. 资源占用:优化内存和 CPU 使用

  • 内存使用epoll 通过减少对每个 FD 的内存需求来优化内存使用。与 selectpoll 相比,epoll 不需要为每个 FD 分配固定大小的数据结构。

  • CPU 使用:由于 epoll 仅处理实际就绪的 FD,它减少了 CPU 周期的浪费。在 selectpoll 中,CPU 需要检查所有注册的 FD,即使它们中许多可能没有事件发生。

  • 事件通知的优化epoll 利用内核事件通知机制,减少了轮询和检查 FD 的需要,从而降低了 CPU 使用。

4. 系统调用开销

  • 减少系统调用:由于 epoll 可以在单个系统调用中返回多个就绪的 FD,它减少了因处理 I/O 事件而进行的系统调用次数。

5. 内核优化

  • 内核支持epoll 是 Linux 内核的一部分,因此它可以利用内核提供的优化和特性,如快速的事件通知和高效的数据结构。

6. 现代硬件的支持

  • 多核处理器epoll 可以很好地与多核处理器配合工作,允许在多个核心上并行处理 I/O 事件。

综上所述,epoll 的优势来自于其高效的内核实现、事件驱动模型、以及对现代硬件和操作系统特性的充分利用。这些因素共同作用,使得 epoll 成为处理大量并发连接时的首选 I/O 事件通知机制。

详细描述:

在 Linux 中,多个进程可以各自创建自己的 epoll 对象,每个进程都有独立的 epoll 实例,即拥有独立的 eventpoll 结构体和相关的数据结构(如红黑树、就绪列表等)。

当一个进程调用 epoll_create 函数时,Linux 内核会为该进程创建一个 eventpoll 对象。这个对象用于管理该进程所关注的文件描述符及其相关事件。

每个进程通过 epoll_ctl 函数向自己的 epoll 对象中添加、修改或删除需要监听的文件描述符及其事件。

通过 epoll_wait 函数,进程可以阻塞等待其 epoll 对象中注册的事件发生,并获取发生的事件。

这样,不同的进程可以独立地管理自己的文件描述符集合,各自进行事件的监听和处理,它们之间不会相互干扰。

多个进程可以有多个 epoll 对象, epoll 也可以在一个进程内实现高效的 I/O 多路复用,集中管理和处理多个文件描述符的事件。而这里进一步说明了多个进程可以各自使用 epoll 来管理属于自己进程的文件描述符,每个进程都有自己独立的管理机制。

例如,进程 A 和进程 B 都可以创建自己的 epoll 对象,分别添加各自需要监听的文件描述符,并通过各自的 epoll_wait 等待事件发生,然后进行相应的处理。它们的 epoll 操作是相互独立的。

epoll 的这种设计使得在多进程环境中,每个进程都可以根据自己的需求灵活地使用 epoll 来实现高效的 I/O 事件监听和处理,同时避免了不同进程之间的干扰和冲突。

以下是 epoll 相关操作的简要介绍:

• epoll_create:创建一个 epoll 实例,内核会创建一个 eventpoll 对象,用于存储相关数据结构。该函数返回一个文件描述符,作为后续其他 epoll 系统调用的第一个参数。

• epoll_ctl:用于向 epoll 对象中添加、删除或修改所要监听的文件描述符及其相关事件。通过指定不同的操作类型(如 EPOLL_CTL_ADD、EPOLL_CTL_DEL、EPOLL_CTL_MOD)来实现相应的功能。

• epoll_wait:阻塞等待 epoll 监控的事件中已发送的事件。内核会将发生的事件赋值到提供的 epoll_event 结构体数组中。如果在给定的超时时间内有事件发生,返回事件的数量;如返回 0 表示超时;小于 0 表示出错。

整个过程结合 TCP 三次握手、四次挥手以及文件读取等操作如下(以服务器端为例):

1. 服务器创建监听套接字(使用 socket 函数)。

2. 调用 bind 函数将套接字与特定的地址和端口绑定。

3. 调用 listen 函数使套接字进入监听状态,准备接受客户端连接请求。

4. 服务器进程调用 epoll_create 创建一个 epoll 实例,获得 epoll 文件描述符 epfd。

5. 通过 epoll_ctl 将监听套接字添加到 epoll 实例中,注册感兴趣的事件(如可读事件 EPOLLIN)。

6. 进入事件循环,在循环中调用 epoll_wait 等待事件发生。

7. 当有新的客户端发起 TCP 三次握手,连接建立成功后,内核会将监听套接字的可读事件添加到 epoll 实例的就绪列表中。

8. epoll_wait 返回,服务器进程得知有新连接到来,通过 accept 函数接受连接,获得与客户端通信的新套接字。

9. 再次使用 epoll_ctl 将新的通信套接字添加到 epoll 实例中,注册相关事件(如可读、可写等)。

10. 后续服务器通过 epoll_wait 监测通信套接字上的事件,例如客户端发送数据导致可读事件触发。

11. 服务器读取数据进行处理,处理完毕后如果需要回复数据给客户端,则可进行写操作。

12. 当客户端关闭连接时,会触发四次挥手过程,相应的套接字上可能会有可读事件(表示对端关闭)或其他相关事件。

13. 服务器根据事件进行相应处理,如关闭套接字等。

14. 重复步骤 6 至步骤 13,以处理更多的客户端连接和事件。

在这个过程中,epoll 高效地管理着多个套接字的事件,避免了传统方式(如 select 或轮询)中需要遍历所有套接字来检查事件的低效率操作。文件读取等操作则是在有相关事件触发(如套接字可读)后进行的实际数据读取和处理。同时,通过合理地添加、删除套接字到 epoll 实例,以及处理 TCP 连接的建立和关闭,实现了对多个连接的有效管理。而 socket 创建和销毁则是根据实际的连接建立和关闭来进行的,当不再需要某个套接字时,会进行相应的关闭操作,释放相关资源。

在具体的实现中,epoll 利用红黑树来快速查找和管理注册的套接字,以及就绪列表来存储已触发事件的套接字,从而实现高效的事件通知机制。不同进程可以各自创建和使用 epoll 实例来管理属于自己的套接字,彼此不会相互影响。这种方式使得服务器能够同时处理大量并发连接,提高了系统的性能和可扩展性。

示例代码:

#include <stdio.h>  // C 标准输入输出库
#include <stdlib.h>  // C 标准库
#include <string.h>  // C 字符串操作库
#include <unistd.h>  // Unix 标准库
#include <sys/epoll.h>  // epoll 相关系统调用的头文件
#include <sys/socket.h>  // 套接字相关系统调用的头文件

#define MAX_EVENTS 10  // 最大事件数量

// 处理连接的函数
void handle_connection(int sockfd) {
    char buffer[1024];  // 接收数据的缓冲区
    int n = recv(sockfd, buffer, sizeof(buffer), 0);  // 从套接字接收数据
    if (n > 0) {  // 接收成功
        buffer[n] = '\0';  // 添加字符串结束符
        printf("Received: %s\n", buffer);  // 打印接收到的数据
    } else if (n == 0) {  // 客户端断开连接
        printf("Client disconnected\n");  // 打印提示信息
    } else {  // 接收出错
        perror("recv error");  // 打印错误信息
    }
}

int main() {
    int epfd = epoll_create1(0);  // 创建 epoll 实例
    if (epfd == -1) {  // 创建失败
        perror("epoll_create1");  // 打印错误信息
        exit(EXIT_FAILURE);  // 退出程序
    }

    int listen_sock = socket(AF_INET, SOCK_STREAM, 0);  // 创建监听套接字
    if (listen_sock == -1) {  // 创建失败
        perror("socket");  // 打印错误信息
        exit(EXIT_FAILURE);  // 退出程序
    }

    struct sockaddr_in server_addr;  // 服务器地址结构体
    memset(&server_addr, 0, sizeof(server_addr));  // 初始化结构体为 0
    server_addr.sin_family = AF_INET;  // 设置地址族为 IPv4
    server_addr.sin_addr.s_addr = INADDR_ANY;  // 监听所有本地地址
    server_addr.sin_port = htons(8080);  // 设置端口为 8080(网络字节序)

    if (bind(listen_sock, (struct sockaddr *)&server_addr, sizeof(server_addr)) == -1) {  // 绑定套接字到地址
        perror("bind");  // 打印错误信息
        exit(EXIT_FAILURE);  // 退出程序
    }

    if (listen(listen_sock, 5) == -1) {  // 开始监听,允许 5 个连接排队
        perror("listen");  // 打印错误信息
        exit(EXIT_FAILURE);  // 退出程序
    }

    struct epoll_event event;  // epoll 事件结构体
    event.data.fd = listen_sock;  // 设置事件关联的文件描述符为监听套接字
    event.events = EPOLLIN;  // 关注可读事件

    if (epoll_ctl(epfd, EPOLL_CTL_ADD, listen_sock, &event) == -1) {  // 将监听套接字添加到 epoll 实例
        perror("epoll_ctl");  // 打印错误信息
        exit(EXIT_FAILURE);  // 退出程序
    }

    struct epoll_event events[MAX_EVENTS];  // epoll 事件数组

    while (1) {  // 无限循环
        int nfds = epoll_wait(epfd, events, MAX_EVENTS, -1);  // 等待 epoll 事件
        if (nfds == -1) {  // 等待出错
            perror("epoll_wait");  // 打印错误信息
            break;  // 退出循环
        }

        for (int i = 0; i < nfds; i++) {  // 遍历发生的事件
            if (events[i].data.fd == listen_sock) {  // 如果是监听套接字的事件
                int client_sock = accept(listen_sock, NULL, NULL);  // 接受新连接
                if (client_sock == -1) {  // 接受连接出错
                    perror("accept");  // 打印错误信息
                } else {  // 接受连接成功
                    event.data.fd = client_sock;  // 设置新连接的套接字
                    event.events = EPOLLIN;  // 关注可读事件

                    if (epoll_ctl(epfd, EPOLL_CTL_ADD, client_sock, &event) == -1) {  // 将新连接添加到 epoll 实例
                        perror("epoll_ctl");  // 打印错误信息
                    }
                }
            } else {  // 如果是客户端连接的事件
                handle_connection(events[i].data.fd);  // 处理连接
            }
        }
    }

    close(listen_sock);  // 关闭监听套接字
    close(epfd);  // 关闭 epoll 实例

    return 0;  // 程序正常结束返回 0
}

以下是这段代码的实现链路分析:

  1. 在 main 函数中,首先使用 epoll_create1 函数创建一个 epoll 实例,并获取其文件描述符 epfd 。如果创建失败,会打印错误信息并退出程序。
  2. 使用 socket 函数创建一个监听套接字 listen_sock ,用于接收客户端的连接请求。如果创建失败,同样会打印错误并退出。
  3. 初始化服务器地址结构体 server_addr ,设置地址族、监听的本地地址和端口。
  4. 通过 bind 函数将监听套接字与地址绑定,通过 listen 函数开始监听,指定队列中允许等待连接的最大数量。
  5. 配置一个 epoll_event 结构体 event ,将监听套接字与关注的可读事件 EPOLLIN 关联,并使用 epoll_ctl 将监听套接字添加到 epoll 实例中进行监控。
  6. 进入一个无限循环,通过 epoll_wait 函数等待 epoll 事件的发生。
  7. 当有事件发生时,通过遍历返回的事件数组 events 来处理。
    • 如果是监听套接字的事件,使用 accept 函数接受新的客户端连接,获取新的客户端套接字 client_sock 。若接受连接成功,再次配置 epoll_event 结构体,并将新的客户端套接字添加到 epoll 实例中进行监控。
    • 如果是客户端套接字的事件,调用 handle_connection 函数处理客户端的连接,在函数中通过 recv 函数接收数据,并根据接收结果进行相应的处理。
  8. 循环结束后,关闭监听套接字和 epoll 实例。

这段代码实现了一个基于 epoll 的简单服务器,能够接受客户端连接并处理客户端发送的数据。

  • 3
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值