LinuxC/C++ 实现百万并发服务器
文章目录
1. 准备
首先要准备四台虚拟机,一台用作服务器,另外三台用作客户端.
- Server: 4G内存、2核CPU
- Client: 2G内存、1核CPU
2. code
服务端
#include <stdio.h>
#include <string.h>
#include <stdlib.h>
#include <netinet/tcp.h>
#include <arpa/inet.h>
#include <pthread.h>
#include <errno.h>
#include <fcntl.h>
#include <sys/socket.h>
#include <sys/epoll.h>
#define BUFFER_LENGTH 1024
#define EPOLL_SIZE 1024
#define MAX_PORT 100
int islistenfd(int fd, int *fds) {
int i = 0;
for (i = 0; i < MAX_PORT; i++) {
if (fd == *(fds + i)) {
return fd;
}
}
return 0;
}
int main(int argc,char* argv[]) {
if (argc < 2) {
printf("Parm Error\n");
return -1;
}
// 从这个端口开始
int port = atoi(argv[1]);
int sockfds[MAX_PORT] = {0}; // listen fd
int epfd = epoll_create(1);
struct epoll_event events[EPOLL_SIZE] = {0};
int i = 0;
for (i = 0; i < MAX_PORT; i++) {
int sockfd = socket(AF_INET, SOCK_STREAM, 0);
struct sockaddr_in addr;
memset(&addr, 0, sizeof(struct sockaddr_in));
addr.sin_family = AF_INET;
addr.sin_port = htons(port + i); // 从8888到8987一共100个端口
addr.sin_addr.s_addr = INADDR_ANY;
if (bind(sockfd, (struct sockaddr*)&addr, sizeof(struct sockaddr_in)) < 0) {
perror("bind");
return 2;
}
if (listen(sockfd, 5) < 0) {
perror("listen");
return 3;
}
// 创建的连接加入到epoll里面
struct epoll_event ev;
ev.events = EPOLLIN;
ev.data.fd = sockfd;
// 把socket交给epoll去管理
epoll_ctl(epfd, EPOLL_CTL_ADD, sockfd, &ev);
sockfds[i] = sockfd;
}
// // 创建一个epoll
// int epfd = epoll_create(1);
// struct epoll_event events[EPOLL_SIZE] = {0};
// // 储存epoll监听的IO事件
// struct epoll_event ev;
// ev.events = EPOLLIN;
// ev.data.fd = sockfd;
// // 把socket交给epoll去管理
// epoll_ctl(epfd, EPOLL_CTL_ADD, sockfd, &ev);
while (1) {
// epfd: 指定哪一个epoll
// events: 指定监听事件的容器
// EPOLL_SIZE: 数组大小
// -1: 表示只要没有IO事件就不去处理,0表示有时间就去处理
// 返回处理的IO事件的个数
int nready = epoll_wait(epfd, events, EPOLL_SIZE, -1);
if (nready == -1) {
continue;
}
// 依次处理IO事件
// events容器中会储存两种fd,一种是sockfd,一种是clientfd
int i = 0;
for (i = 0; i < nready; i++) {
// 判断触发IO事件的是否是sockfd
int sockfd = islistenfd(events[i].data.fd, sockfds);
if (sockfd) {
struct sockaddr_in client_addr;
memset(&client_addr, 0, sizeof(struct sockaddr_in));
socklen_t client_len = sizeof(client_addr);
// 建立连接之后得到新的clientfd
int clientfd = accept(sockfd, (struct sockaddr*)&client_addr, &client_len);
// 设置为非阻塞IO
fcntl(clientfd, F_SETFL, O_NONBLOCK);
int reuse = 1;
// 设置socket属性 设置SO_REUSEADDR socket关闭之后并不会立即收回,而是要经历一个TIME_WAIT的阶段
setsockopt(clientfd, SOL_SOCKET, SO_REUSEADDR, (char *)&reuse, sizeof(reuse));
// 确定事件的触发方式
// 水平触发(有数据就触发,可能会触发多次)和边沿触发(检测到状态的改变才会触发)
// 这里使用边沿触发
struct epoll_event ev;
ev.events = EPOLLIN | EPOLLET;
ev.data.fd = clientfd;
// clientfd交给epoll管理
epoll_ctl(epfd, EPOLL_CTL_ADD, clientfd, &ev);
} else {
// 触发的是clientfd,要进行读写操作
int clientfd = events[i].data.fd;
char buffer[BUFFER_LENGTH] = { 0 };
int len = recv(clientfd, buffer, BUFFER_LENGTH, 0);
if (len < 0) {
close(clientfd);
struct epoll_event ev;
ev.events = EPOLLIN | EPOLLET;
ev.data.fd = clientfd;
// 及时清除IO
epoll_ctl(epfd, EPOLL_CTL_DEL, clientfd, &ev);
}
else if (len == 0) {
close(clientfd);
struct epoll_event ev;
ev.events = EPOLLIN | EPOLLET;
ev.data.fd = clientfd;
// 及时清除IO
epoll_ctl(epfd, EPOLL_CTL_DEL, clientfd, &ev);
}
else {
printf("Recv: %s, %d byte(s)\n", buffer, len);
}
}
}
}
return 0;
}
客户端
#include <stdio.h>
#include <string.h>
#include <stdlib.h>
#include <sys/types.h>
#include <sys/socket.h>
#include <sys/epoll.h>
#include <sys/time.h>
#include <errno.h>
#include <netinet/tcp.h>
#include <arpa/inet.h>
#include <netdb.h>
#include <fcntl.h>
#define MAX_BUFFER 128
#define MAX_EPOLLSIZE (384*1024)
#define MAX_PORT 100
#define TIME_SUB_MS(tv1, tv2) ((tv1.tv_sec - tv2.tv_sec) * 1000 + (tv1.tv_usec - tv2.tv_usec) / 1000)
int isContinue = 0;
static int ntySetNonblock(int fd) {
int flags;
flags = fcntl(fd, F_GETFL, 0);
if (flags < 0) return flags;
flags |= O_NONBLOCK;
if (fcntl(fd, F_SETFL, flags) < 0) return -1;
return 0;
}
static int ntySetReUseAddr(int fd) {
int reuse = 1;
return setsockopt(fd, SOL_SOCKET, SO_REUSEADDR, (char *)&reuse, sizeof(reuse));
}
int main(int argc, char **argv) {
if (argc <= 2) {
printf("Usage: %s ip port\n", argv[0]);
exit(0);
}
const char *ip = argv[1];
int port = atoi(argv[2]);
int connections = 0;
char buffer[128] = {0};
int i = 0, index = 0;
struct epoll_event events[MAX_EPOLLSIZE];
int epoll_fd = epoll_create(MAX_EPOLLSIZE);
strcpy(buffer, " Data From MulClient\n");
struct sockaddr_in addr;
memset(&addr, 0, sizeof(struct sockaddr_in));
addr.sin_family = AF_INET;
addr.sin_addr.s_addr = inet_addr(ip);
struct timeval tv_begin;
gettimeofday(&tv_begin, NULL);
while (1) {
if (++index >= MAX_PORT) index = 0;
struct epoll_event ev;
int sockfd = 0;
if (connections < 340000 && !isContinue) {
sockfd = socket(AF_INET, SOCK_STREAM, 0);
if (sockfd == -1) {
perror("socket");
goto err;
}
//ntySetReUseAddr(sockfd);
addr.sin_port = htons(port+index);
if (connect(sockfd, (struct sockaddr*)&addr, sizeof(struct sockaddr_in)) < 0) {
perror("connect");
goto err;
}
ntySetNonblock(sockfd);
ntySetReUseAddr(sockfd);
sprintf(buffer, "Hello Server: client --> %d\n", connections);
send(sockfd, buffer, strlen(buffer), 0);
ev.data.fd = sockfd;
ev.events = EPOLLIN | EPOLLOUT;
epoll_ctl(epoll_fd, EPOLL_CTL_ADD, sockfd, &ev);
connections ++;
}
//connections ++;
if (connections % 1000 == 999 || connections >= 340000) {
struct timeval tv_cur;
memcpy(&tv_cur, &tv_begin, sizeof(struct timeval));
gettimeofday(&tv_begin, NULL);
int time_used = TIME_SUB_MS(tv_begin, tv_cur);
printf("connections: %d, sockfd:%d, time_used:%d\n", connections, sockfd, time_used);
int nfds = epoll_wait(epoll_fd, events, connections, 100);
for (i = 0;i < nfds;i ++) {
int clientfd = events[i].data.fd;
if (events[i].events & EPOLLOUT) {
sprintf(buffer, "data from %d\n", clientfd);
send(sockfd, buffer, strlen(buffer), 0);
} else if (events[i].events & EPOLLIN) {
char rBuffer[MAX_BUFFER] = {0};
ssize_t length = recv(sockfd, rBuffer, MAX_BUFFER, 0);
if (length > 0) {
printf(" RecvBuffer:%s\n", rBuffer);
if (!strcmp(rBuffer, "quit")) {
isContinue = 0;
}
} else if (length == 0) {
printf(" Disconnect clientfd:%d\n", clientfd);
connections --;
close(clientfd);
} else {
if (errno == EINTR) continue;
printf(" Error clientfd:%d, errno:%d\n", clientfd, errno);
close(clientfd);
}
} else {
printf(" clientfd:%d, errno:%d\n", clientfd, errno);
close(clientfd);
}
}
}
usleep(1 * 1000);
}
return 0;
err:
printf("error : %s\n", strerror(errno));
return 0;
}
3. 问题汇总
3.1 一个进程默认可以打开的文件fd数量
在Linux中,文件系统默认允许一个进程能打开的最大fd个数为1024
.可以使用ulimit -a
命令来查看.
当超过这个值就会报错:connection_refuesed
.
为了实现百万级并发,我们可以修改这个值.
1. 临时修改
临时修改可以通过以下命令:
ulimit -n 1048576
缺点是重启服务器之后,又会变回默认值.
2. 永久修改
修改vim /etc/security/limits.conf
配置文件:
在文件末尾添加:
* hard nofile 1048576
* soft nofile 1048576
然后使用reboot
重启即可.
3.2 客户端端口耗尽
在使用send(sockfd, buffer, strlen(buffer, 0))
和recv(clientid, buffer, BUFFER_LENGTH, 0)
函数的时候,客户端在send
的时候,是如何通过sockfd
来确立本机端口和目的端口的呢?以及服务端在recv
的时候,是如何通过发送过来的本机端口、目的端口等等信息来找到clientfd
的呢?
其实每个sockfd
都会对应着一个五元组:
五元组(源IP地址, 源端口, 目的IP地址, 目的端口, 运输层协议)
这个五元组与sockfd
是一对一的关系.
端口耗尽
当源IP地址
, 目的IP地址
, 目的端口
, 运输层协议
确定的时候,由于Linux能开放的最大端口数为65535
,所以客户端的端口很快就会被耗尽.
这个时候就会报错:Cannot assign requested address
.
增加服务端端口
这个时候我们可以多开几个服务端的端口,在实现中,我们在服务端开放了100个端口,三个客户端依次向这100个端口发送数据,可以实现百万级别的并发连接.
3.3 防火墙可以对外打开的最大连接数
使用cat /proc/sys/net/netfilter/nf_conntrack_max
可以查看防火墙允许对外开放的最大连接数:
只有65535
个连接,所以需要修改内核参数:
# 编辑内核参数配置文件
vim /etc/sysctl.conf
# 在配置文件中把net.nf_conntrack_max参数修改为1048576
net.nf_conntrack_max = 1048576
# 重新加载配置文件
sysctl -p
3.4 允许所有进程一共可以打开的最大文件数
可以查看file-max
属性:
cat /proc/sys/fs/file-max
同样可以在内核参数里面进行修改:
# 编辑内核参数配置文件
vim /etc/sysctl.conf
# 修改fs.file-max参数
fs.file-max = 1048576
# 重新加载配置文件
sysctl -p
如果出现问题:
运行以下命令:
modprobe ip_conntrack
# 再次重新加载
sysctl -p
3.5 服务器内存不够
当连接数达到一定的数量后,服务器的内存会达到100%,这个时候服务器会将大量连接客户端的进程停止,进行内存回收,这个时候CPU的利用率会飙升到100%(一般不被允许,CPU利用率一般不能超过80%).
这个时候需要调整一下TCP/IP
协议栈:
# 编辑内核参数配置文件
vim /etc/sysctl.conf
# 添加以下内容
net.ipv4.tcp_mem = 252144 524288 786432 # TCP全局缓存,单位为内存页(4K),524288 * 4k 约等于 2G
net.ipv4.tcp_wmem = 1024 1024 2048 # tcp接受缓存(用于tcp接受滑动窗口)的最小值,默认值和最大值
net.ipv4.tcp_rmem = 1024 1024 2048 # tcp发送缓存(用于tcp发送滑动窗口)的最小值,默认值和最大值
# 总缓存 = (每个fd发送缓存 + 每个fd接收缓存) * fd数量
# 1024byte * 2 * 100w 约等于 2G