reactor模型实现

本文深入解析了Reactor模型,这是一种高效的事件处理模型,常用于高并发服务器。文章详细介绍了Reactor的主要组件,包括多路复用器、事件分发器和事件处理器,并通过具体的C代码实例展示了Reactor模型的使用步骤,包括事件注册、事件处理回调函数等。最后,文章指出Reactor模型在nginx、memcached和redis等开源软件中的应用,并强调其在支持C1000K并发连接方面的优势。
摘要由CSDN通过智能技术生成


前言

对于一个服务器而言:网络 IO通常会涉及到两个系统对象,一个是用户空间的调用IO的进程或者线程,另一个是内核空间。比如发生IO操作的read时,通常会经历两个阶段:等待数据准备就绪,将数据从内核空间拷贝到用户的进程或者线程中。所以多种网络IO的模型就此产生。具体介绍可以看上篇文章IO介绍
对于高并发编程,通常把(等待消息准备好,消息处理)两个阶段分开处理,以下篇幅将介绍一种高效的事件处理模型:Recotor。


提示:以下是本篇文章正文内容

一、什么是reactor模型

Reactor的中文释义是”反应堆“。它的中心思想是将所有要处理的IO事件注册到一个中心IO多路复用器上,同时主线程或者进程阻塞等到复用器上的IO时间,一但IO事件到来或者准备就绪(socket可读,可写,异常等等 ),多路复用器返回并将事先注册的相应IO事件分发到对应的处理器中。

Reactor主要的组件:

  1. 多路复用器:根据不同的操作系统,选用select poll epoll等系统调用(linux三个都支持 ,windows、mac只支持select)。
  2. 事件分发器:将多路复用器中返回的就绪事件分到对应的处理函数中。
  3. 事件处理器:负责处理特定事件的处理函数。

在这里插入图片描述
Reactor具体使用流程 :

  1. 注册读就绪事件和相应的事件处理器。
  2. 事件分离器等待事件。
  3. 事件到来,激活分离器,分离器调用事件对应的处理器。
  4. 事件处理器完成实际的读操作,处理读到的数据,注册新的事件,然后返还控制权。

二、使用步骤

1.声明一个reactor结构体

代码如下(示例):

struct ntyreactor {
	int epfd;
	struct ntyevent *events;
};

epfd:epoll的文件描述符,用来操作epoll的接口。
events:reactor管理IO连接的描述符和对应的状态和相应的处理事件的回调函数,定义如下

struct ntyevent {
	int fd;
	int events;
	void *arg;
	int (*callback)(int fd, int events, void *arg);
	
	int status;
	char buffer[BUFFER_LENGTH];
	int length;
	long last_active;
};

主要的成员变量是fd、events、callback。这三个参数分辨对应着IO的socketfd,监听的事件,以及对应处理事件的回调函数。

2.事件的设置,添加,以及删除

代码如下(示例):

void nty_event_set(struct ntyevent *ev, int fd, NCALLBACK callback, void *arg) {

	ev->fd = fd;
	ev->callback = callback;
	ev->events = 0;
	ev->arg = arg;
	ev->last_active = time(NULL);

	return ;
	
}


int nty_event_add(int epfd, int events, struct ntyevent *ev) {

	struct epoll_event ep_ev = {0, {0}};
	ep_ev.data.ptr = ev;
	ep_ev.events = ev->events = events;

	int op;
	if (ev->status == 1) {
		op = EPOLL_CTL_MOD;
	} else {
		op = EPOLL_CTL_ADD;
		ev->status = 1;
	}

	if (epoll_ctl(epfd, op, ev->fd, &ep_ev) < 0) {
		printf("event add failed [fd=%d], events[%d]\n", ev->fd, events);
		return -1;
	}

	return 0;
}

int nty_event_del(int epfd, struct ntyevent *ev) {

	struct epoll_event ep_ev = {0, {0}};

	if (ev->status != 1) {
		return -1;
	}

	ep_ev.data.ptr = ev;
	ev->status = 0;
	epoll_ctl(epfd, EPOLL_CTL_DEL, ev->fd, &ep_ev);

	return 0;
}

2.read,write,accept的事件的处理回调函数

int recv_cb(int fd, int events, void *arg) {

	struct ntyreactor *reactor = (struct ntyreactor*)arg;
	struct ntyevent *ev = reactor->events+fd;

	int len = recv(fd, ev->buffer, BUFFER_LENGTH, 0);
	nty_event_del(reactor->epfd, ev);

	if (len > 0) {
		
		ev->length = len;
		ev->buffer[len] = '\0';

		printf("C[%d]:%s\n", fd, ev->buffer);

		nty_event_set(ev, fd, send_cb, reactor);
		nty_event_add(reactor->epfd, EPOLLOUT, ev);
		
		
	} else if (len == 0) {

		close(ev->fd);
		printf("[fd=%d] pos[%ld], closed\n", fd, ev-reactor->events);
		 
	} else {

		close(ev->fd);
		printf("recv[fd=%d] error[%d]:%s\n", fd, errno, strerror(errno));
		
	}

	return len;
}


int send_cb(int fd, int events, void *arg) {

	struct ntyreactor *reactor = (struct ntyreactor*)arg;
	struct ntyevent *ev = reactor->events+fd;

	int len = send(fd, ev->buffer, ev->length, 0);
	if (len > 0) {
		printf("send[fd=%d], [%d]%s\n", fd, len, ev->buffer);

		nty_event_del(reactor->epfd, ev);
		nty_event_set(ev, fd, recv_cb, reactor);
		nty_event_add(reactor->epfd, EPOLLIN, ev);
		
	} else {

		close(ev->fd);

		nty_event_del(reactor->epfd, ev);
		printf("send[fd=%d] error %s\n", fd, strerror(errno));

	}

	return len;
}

int accept_cb(int fd, int events, void *arg) {

	struct ntyreactor *reactor = (struct ntyreactor*)arg;
	if (reactor == NULL) return -1;

	struct sockaddr_in client_addr;
	socklen_t len = sizeof(client_addr);

	int clientfd;

	if ((clientfd = accept(fd, (struct sockaddr*)&client_addr, &len)) == -1) {
		if (errno != EAGAIN && errno != EINTR) {
			
		}
		printf("accept: %s\n", strerror(errno));
		return -1;
	}

	int i = 0;
	do {
		
		for (i = 3;i < MAX_EPOLL_EVENTS;i ++) {
			if (reactor->events[i].status == 0) {
				break;
			}
		}
		if (i == MAX_EPOLL_EVENTS) {
			printf("%s: max connect limit[%d]\n", __func__, MAX_EPOLL_EVENTS);
			break;
		}

		int flag = 0;
		if ((flag = fcntl(clientfd, F_SETFL, O_NONBLOCK)) < 0) {
			printf("%s: fcntl nonblocking failed, %d\n", __func__, MAX_EPOLL_EVENTS);
			break;
		}

		nty_event_set(&reactor->events[clientfd], clientfd, recv_cb, reactor);
		nty_event_add(reactor->epfd, EPOLLIN, &reactor->events[clientfd]);

	} while (0);

	printf("new connect [%s:%d][time:%ld], pos[%d]\n", 
		inet_ntoa(client_addr.sin_addr), ntohs(client_addr.sin_port), reactor->events[i].last_active, i);

	return 0;

}

3.初始化reactor

int ntyreactor_init(struct ntyreactor *reactor) {

	if (reactor == NULL) return -1;
	memset(reactor, 0, sizeof(struct ntyreactor));

	reactor->epfd = epoll_create(1);
	if (reactor->epfd <= 0) {
		printf("create epfd in %s err %s\n", __func__, strerror(errno));
		return -2;
	}

	reactor->events = (struct ntyevent*)malloc((MAX_EPOLL_EVENTS) * sizeof(struct ntyevent));
	if (reactor->events == NULL) {
		printf("create epfd in %s err %s\n", __func__, strerror(errno));
		close(reactor->epfd);
		return -3;
	}
}

4.将监听fd加入到reactor

int ntyreactor_addlistener(struct ntyreactor *reactor, int sockfd, NCALLBACK *acceptor) {

	if (reactor == NULL) return -1;
	if (reactor->events == NULL) return -1;

	nty_event_set(&reactor->events[sockfd], sockfd, acceptor, reactor);
	nty_event_add(reactor->epfd, EPOLLIN, &reactor->events[sockfd]);

	return 0;
}

5.等待事件

int ntyreactor_run(struct ntyreactor *reactor) {
	if (reactor == NULL) return -1;
	if (reactor->epfd < 0) return -1;
	if (reactor->events == NULL) return -1;
	
	struct epoll_event events[MAX_EPOLL_EVENTS+1];
	
	int checkpos = 0, i;

	while (1) {

		long now = time(NULL);
		for (i = 0;i < 100;i ++, checkpos ++) {
			if (checkpos == MAX_EPOLL_EVENTS) {
				checkpos = 0;
			}

			if (reactor->events[checkpos].status != 1) {
				continue;
			}

			long duration = now - reactor->events[checkpos].last_active;

			if (duration >= 60) {
				close(reactor->events[checkpos].fd);
				printf("[fd=%d] timeout\n", reactor->events[checkpos].fd);
				nty_event_del(reactor->epfd, &reactor->events[checkpos]);
			}
		}


		int nready = epoll_wait(reactor->epfd, events, MAX_EPOLL_EVENTS, 1000);
		if (nready < 0) {
			printf("epoll_wait error, exit\n");
			continue;
		}

		for (i = 0;i < nready;i ++) {

			struct ntyevent *ev = (struct ntyevent*)events[i].data.ptr;

			if ((events[i].events & EPOLLIN) && (ev->events & EPOLLIN)) {
				ev->callback(ev->fd, events[i].events, ev->arg);
			}
			if ((events[i].events & EPOLLOUT) && (ev->events & EPOLLOUT)) {
				ev->callback(ev->fd, events[i].events, ev->arg);
			}
			
		}

	}
}

6.主函数

int main(int argc, char *argv[]) {

	unsigned short port = SERVER_PORT;
	if (argc == 2) {
		port = atoi(argv[1]);
	}

	int sockfd = init_sock(port);

	struct ntyreactor *reactor = (struct ntyreactor*)malloc(sizeof(struct ntyreactor));
	ntyreactor_init(reactor);
	
	ntyreactor_addlistener(reactor, sockfd, accept_cb);
	ntyreactor_run(reactor);

	ntyreactor_destory(reactor);
	close(sockfd);
	

	return 0;
}

三、代码解读

  1. main函数开始调用了init_sock,这个函数里面主要是调用了socket()、bind()、listen()监听三件套。生成一个listenfd并返回给main函数。
  2. 第二步初始化了一个reactor。显示调用epoll_create创建一个epoll多路复用器,然后初始化ntyevent的数组,大小为MAX_EPOLL_EVENTS。
  3. 第三步将listenfd添加到reactor里面管理。首先调用nty_event_set,将监听的fd、对应的回调函数accept_cb(因为listenfd负责的是accept)赋值。然后调用nty_event_add,设置evens,也就是要监听的事件(EPOLLIN)复制到对应的ntyevent上,调用epoll_ctl将这个listenfd添加到epoll里面进行对网络IO的监听。
  4. 第四步ntyreactor_run函数,里面主要就是调用多路复用器epoll_wait()等待IO事件的到来,然后处理IO事件,并根据不同的事件(EPOLLIN或者EPOLLOUT)调用注册到ntyevent上的不同的回调函数。比如对于一个EPOLLIN的IO事件,listenfd和connfd的回调处理函数是不一样的(listenfd是accept_cb,clientfd是recv_cb)。
  5. 当一个新的连接进来时,事件分发器调用accept_cb,通过accept()函数返回一个clientfd,并将clientfd通过nty_event_set、nty_event_add注册到reactor上。并将监听事件初始化为EPOLLIN。
  6. 当 收到一条clientfd消息时,回调recv_cb事件处理器,接收数据。然后把这个clientfd设置可写事件,主要是为了测试可写事件的回调。
  7. 当clientfd可写时,回调send_cb事件处理器,发送消息,并且通过nty_event_del删除事件,避免一直回调可写事件。然后重新注册可读事件。
  8. 为什么要把socketfd设置成非阻塞的?因为有可能在事件处理器中很有可能导致条件不满足时,线程又进入了睡眠等待状态。

总结

上面说Reactor模型中的三个重要组件:

  1. 多路复用器:上述代码对应着的epoll。
  2. 事件分发器:也就是ntyreactor_run函数,将多路复用器中返回的就绪事件分发到注册到对应事件上的事件处理器上。
  3. 事件处理器:accept_cb 、recv_cb 、send_cb三个事件处理器分别对应处理新建连接事件,读事件和写事件。

Reactor模型在很多开源软件中都有应用:nginx、memcached、redis等。之所以其能作为重要的、高效的事件处理模型。原因是其能支持百万并发,也就是C1000K。后面的文章将介绍如何使用Reactor模型支持百万并发,以及如何在Reactor模型上实现一个http服务器。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值