C++网络编程实践:使用C++11基于epoll技术实现一个超大并发TCP服务器

理解epoll

epoll 是一种 I/O 复用技术,它允许一个线程有效地管理多个文件描述符(在本例中为套接字),而无需为每个连接创建单独的线程。这是通过事件驱动的方式来实现的,epoll 能够通知你哪些套接字已经准备好进行读写操作。

在传统的基于线程的模型中,每当有一个新的连接,服务器就会创建一个新的线程来处理这个连接。这种方法在连接数量较少时工作良好,但在高并发场景下会遇到线程上下文切换开销大、系统资源消耗过多等问题。

相比之下,epoll 允许你在一个线程中处理数千甚至数百万个连接,而不会因为线程管理带来额外的开销。epoll 通过注册事件(如 EPOLLIN 表示可读,EPOLLOUT 表示可写)来监控多个套接字。当某些套接字准备好时,epoll_wait 函数会立即返回这些套接字的列表,然后服务器可以依次处理这些事件,而无需创建新线程。

使用epoll的优势

使用 epoll 进行网络编程相比于传统的 selectpoll 方法具有显著的优势,尤其在处理大量并发连接的场景下更为明显

  1. 高效率epoll 使用更高效的数据结构和算法,例如基于红黑树的实现,使得它在处理大量文件描述符时效率远高于 selectpoll。它能够快速查找和更新事件状态,减少了系统调用的次数和上下文切换的开销。

  2. 扩展性epoll 支持水平触发(Level Triggered, LT)和边缘触发(Edge Triggered, ET)两种模式。ET 模式下,epoll 只在事件首次发生时报告,这可以减少不必要的事件报告,提高效率。LT 模式则允许重复报告事件直到被处理。

  3. 节省资源epoll 不需要为每一个文件描述符维护一个内核数据结构,而是使用一个文件描述符来管理多个连接,这样减少了内存使用和系统资源的消耗。

  4. 无连接数限制select 的最大限制是受 FD_SETSIZE 的约束,而 epoll 没有硬性的连接数限制,理论上可以处理成千上万乃至更多数量的并发连接。

  5. 精确的超时控制epoll 提供了更精确的超时控制,这对于需要高精度超时的网络应用尤为重要。

  6. 低延迟和高吞吐量epoll 的事件通知机制允许快速响应网络事件,降低延迟并提高整体吞吐量。

  7. 事件驱动模型epoll 基于事件驱动,这意味着只有当套接字上的事件真正发生时才会有通知,这避免了轮询所有连接所带来的开销。

  8. 支持多路复用epoll 可以同时处理多个套接字的读写事件,使得服务器可以有效地处理大量并发请求,而无需为每个连接创建额外的线程或进程。

  9. 低内存拷贝开销: 在处理事件时,epoll 可以直接访问内核中的数据结构,减少了用户空间和内核空间之间不必要的内存拷贝。

  10. 灵活的通知机制epoll 允许应用程序注册不同类型的事件,包括读事件、写事件等,以及错误条件和挂起事件。

代码样例 

下面用epoll技术实现一个TCP服务器,具体方法和思路看注释

#include <iostream>
#include <string.h> 
#include <unistd.h> 
#include <sys/socket.h>  // socket, bind, listen, accept
#include <netinet/in.h>  // sockaddr_in
#include <arpa/inet.h>   // inet_addr
#include <fcntl.h>       // fcntl
#include <errno.h>   
#include <sys/epoll.h>   // epoll
#include <unordered_map>
#include <string>
#include <vector>

#define MAX_EVENTS 3000

class TCPServer {
public:
    //构造函数
    TCPServer(int port) : listenSocket(-1), port(port){}

    ~TCPServer() {
        if (listenSocket != -1)
            close(listenSocket);
    }

    void start() {
        initSocket();
        setupEpoll();
        listen(listenSocket, SOMAXCONN);
        std::cout << "Server started on port " << port << std::endl;
        run();
    }

private:
    int listenSocket;
    int epollFd;
    int port;
    int msgCount;

     /**
     * 初始化监听套接字
     * 该函数创建一个监听套接字,并将其绑定到指定的IP地址和端口上。
     * 如果创建或绑定套接字时发生错误,程序将输出错误信息并退出。
     */
    void initSocket() {
        // 创建一个流式套接字
        listenSocket = socket(AF_INET, SOCK_STREAM, 0);
        if (listenSocket == -1) {
            perror("Error creating socket");
            exit(EXIT_FAILURE);
        }

        // 设置套接字选项,允许重复使用地址
        // 这在重启服务时特别有用,可以避免因为地址还处于TIME_WAIT状态而无法绑定
        int optval = 1;
        setsockopt(listenSocket, SOL_SOCKET, SO_REUSEADDR, &optval, sizeof(optval));

        // 初始化sockaddr_in结构体,用于指定套接字要绑定的地址和端口
        struct sockaddr_in addr;
        memset(&addr, 0, sizeof(addr));
        addr.sin_family = AF_INET;
        addr.sin_port = htons(port);
        addr.sin_addr.s_addr = htonl(INADDR_ANY);

        // 将套接字绑定到指定的地址和端口上
        if (bind(listenSocket, (struct sockaddr*)&addr, sizeof(addr)) == -1) {
            perror("Error binding socket");
            close(listenSocket);
            exit(EXIT_FAILURE);
        }
    }

    /**
     * 演示epoll的使用
     * 初始化epoll监听结构体
     * 本函数用于创建epoll实例,并将监听socket添加到epoll中,以非阻塞方式监听客户端连接请求。
     * 
     * @note 如果创建epoll实例或添加监听socket到epoll中失败,程序将退出。
     */
    void setupEpoll() {
        // 创建epoll实例
        epollFd = epoll_create1(0);
        if (epollFd == -1) {
            // 如果创建失败,输出错误信息,关闭监听socket,并退出程序
            perror("Error creating epoll instance");
            close(listenSocket);
            exit(EXIT_FAILURE);
        }

        struct epoll_event ev;
        // 设置epoll事件类型为可读事件和边缘触发
        ev.events = EPOLLIN | EPOLLET;
        // 将监听socket关联到epoll事件中
        ev.data.fd = listenSocket;
        if (epoll_ctl(epollFd, EPOLL_CTL_ADD, listenSocket, &ev) == -1) {
            // 如果添加监听socket到epoll失败,输出错误信息,关闭监听socket和epoll实例,并退出程序
            perror("Error adding listen socket to epoll");
            close(listenSocket);
            close(epollFd);
            exit(EXIT_FAILURE);
        }

        // 将监听socket设置为非阻塞模式
        fcntl(listenSocket, F_SETFL, O_NONBLOCK);
    }

    /**
     * 主循环,负责监听和处理客户端连接。
     * 该循环将持续运行,直到发生无法恢复的错误。
     * 它通过epoll_wait监控客户端连接和已建立的连接上的活动。
     */
    void run() {
        while (true) {
            // 准备接收epoll_wait返回的事件。
            std::vector<struct epoll_event> events(MAX_EVENTS);
            
            // 调用epoll_wait阻塞,直到有事件发生或超时。超时时间为-1,表示无限等待。
            int numEvents = epoll_wait(epollFd, events.data(), MAX_EVENTS, -1);
            
            // 检查epoll_wait调用是否失败。
            if (numEvents == -1) {
                perror("Error in epoll_wait");
                break;
            }

            // 遍历发生的事件,区分监听套接字和客户端套接字的事件。
            for (int i = 0; i < numEvents; ++i) {
                // 如果事件来源是监听套接字,则处理新的客户端连接请求。
                if (events[i].data.fd == listenSocket) {
                    handleNewConnection();
                }
                else {
                    // 如果事件来源是已建立的客户端套接字,则处理客户端的请求或数据。
                    handleClient(events[i].data.fd);
                }
            }
        }
    }

    /**
     * 接收新连接
     */
    void handleNewConnection() {
        int clientSocket = accept(listenSocket, nullptr, nullptr);
        if (clientSocket == -1) {
            if (errno != EAGAIN && errno != EWOULDBLOCK) {
                perror("Error accepting new connection");
            }
            return;
        }

        //添加到epoll中
        struct epoll_event ev;
        ev.events = EPOLLIN | EPOLLET;
        ev.data.fd = clientSocket;
        if (epoll_ctl(epollFd, EPOLL_CTL_ADD, clientSocket, &ev) == -1) {
            perror("Error adding client socket to epoll");
            close(clientSocket);
            return;
        }

        //设置非阻塞模式
        fcntl(clientSocket, F_SETFL, O_NONBLOCK);

        struct sockaddr_in addr;
        socklen_t len = sizeof(addr);
        getpeername(clientSocket, (struct sockaddr*)&addr, &len);
        std::string address = inet_ntoa(addr.sin_addr);
            std::cout << "Client connected " << address << std::endl;
        }

    /**
     * 处理客户端消息
     */
    void handleClient(int clientSocket) {
        ssize_t bytesRead = read(clientSocket, buffer, sizeof(buffer) - 1);
        if (bytesRead == -1) {
            if (errno != EAGAIN && errno != EWOULDBLOCK) {
                perror("Error reading from client");
            }
            return -1;
        }else if(bytesRead == 0){
            close(clientSocket);
            epoll_ctl(epollFd, EPOLL_CTL_DEL, clientSocket, nullptr);
            std::cout << "Client Disconnected "  << std::endl;
            return 0;
        }

        std::cout << "Received data " << bytesRead  << std::endl;
        //回复一些数据
        //write(clientSocket, buffer, len);
    }
};



int main(int argc, char* argv[]) {
    int PORT = 8080;
     if (argc >= 2) {
        PORT = std::atoi(argv[1]);
    }
    TCPServer server(PORT);
    server.start();

    return 0;
}

  • 4
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
### 回答1: Linux多线程服务端编程是指使用Muduo C网络库在Linux操作系统中进行多线程的服务端编程。Muduo C网络库是一个基于事件驱动的网络库,采用了Reactor模式,并且在底层使用epoll实现高效的I/O复用。 使用Muduo C网络库进行多线程服务端编程有以下几个步骤: 1. 引入Muduo C网络库:首先需要下载并引入Muduo C网络库的源代码,然后在编写代码时包含相应的头文件。 2. 创建并初始化EventLoop:首先需要创建一个EventLoop对象,它用于接收和分发事件。通过初始化函数进行初始化,并在主线程中调用它的loop()函数来运行事件循环。 3. 创建TcpServer:然后创建一个TcpServer对象,它负责监听客户端的连接,并管理多个TcpConnection对象。通过设置回调函数,可以在特定事件发生时处理相应的逻辑。 4. 创建多个EventLoopThread:为了提高并发性能,可以创建多个EventLoopThread对象,每个对象负责一个EventLoop,从而实现多线程处理客户端的连接和请求。 5. 处理事件:在回调函数中处理特定事件,例如有新的连接到来时会调用onConnection()函数,可以在该函数中进行一些初始化操作。当有数据到来时会调用onMessage()函数,可以在该函数中处理接收和发送数据的逻辑。 6. 运行服务端:在主线程中调用TcpServer的start()函数来运行服务端,等待客户端的连接和请求。 总的来说,使用Muduo C网络库进行Linux多线程服务端编程可以更好地利用多核处理器的性能优势。每个线程负责处理特定事件,通过事件驱动模式实现高效的网络编程。这样可以提高服务器并发能力,提高系统的整体性能。 ### 回答2: Linux多线程服务端编程是指在Linux平台上使用多线程的方式来编写网络服务器程序。而使用muduo C网络库是一种常见的方法,它提供了高效的网络编程接口,可以简化多线程服务器的开发过程。 muduo C网络库基于Reactor模式,利用多线程实现了高并发的网络通信。在使用muduo C进行多线程服务端编程时,我们可以按照以下步骤进行: 1. 引入muduo库:首先需要导入muduo C网络库的头文件,并链接对应的库文件,以供程序调用。 2. 创建线程池:利用muduo C中的ThreadPool类创建一个线程池,用于管理和调度处理网络请求的多个线程。 3. 创建TcpServer对象:使用muduo C中的TcpServer类创建一个服务器对象,监听指定的端口,并设置好Acceptor、TcpConnectionCallback等相关回调函数。 4. 定义业务逻辑:根据具体的业务需求,编写处理网络请求的业务逻辑代码,如接收客户端的请求、处理请求、发送响应等。 5. 注册业务逻辑函数:将定义好的业务逻辑函数注册到TcpServer对象中,以便在处理网络请求时调用。 6. 启动服务器:调用TcpServer对象的start函数,启动服务器,开始监听端口并接收客户端请求。 7. 处理网络请求:当有客户端连接到服务器时,muduo C会自动分配一个线程去处理该连接,执行注册的业务逻辑函数来处理网络请求。 8. 释放资源:在程序结束时,需要调用相应的函数来释放使用的资源,如关闭服务器、销毁线程池等。 通过使用muduo C网络库,我们可以简化多线程服务端编程的过程,提高服务器并发处理能力。因为muduo C网络库已经实现了底层的网络通信细节,我们只需要专注于编写业务逻辑代码,从而减少开发的工作量。同时,muduo C的多线程模型可以有效地提高服务器并发性能,满足高并发网络服务的需求。 ### 回答3: Linux多线程服务端编程是指在Linux操作系统上开发多线程服务器应用程序。使用muduo C网络库有助于简化开发过程,提供高效的网络通信能力。 muduo C网络库是一个基于Reactor模式的网络库,适用于C++语言,由Douglas Schmidt的ACE网络库演化而来。它提供了高度并发网络编程能力,封装了许多底层细节,使得开发者能够更加专注于业务逻辑的实现。 在开发过程中,首先需要创建一个muduo C的EventLoop对象来管理事件循环。然后,可以利用TcpServer类来创建服务器并监听指定的端口。当有新的客户端请求到达时,muduo C会自动调用用户定义的回调函数处理请求。 在处理请求时,可以使用muduo C提供的ThreadPool来创建多个工作线程。这些工作线程将负责处理具体的业务逻辑。通过将工作任务分配给不同的线程,可以充分利用多核服务器的计算资源,提高服务器的处理能力。 在具体的业务逻辑中,可以使用muduo C提供的Buffer类来处理网络数据。Buffer类提供了高效的数据读写操作,可以方便地进行数据解析与封装。 此外,muduo C还提供了TimerQueue类来处理定时任务,可以用于实现定时事件的调度与管理。这对于一些需要定期执行的任务非常有用,如心跳检测、定时备份等。 总之,使用muduo C网络库可以简化Linux多线程服务端编程的开发过程,提供高效的并发能力。通过合理地利用多线程和其他的相关组件,可以实现高性能、稳定可靠的网络服务端应用程序。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值