本章主要补充LINUX下的一些多进程编程的系统调用
1.Linux中的一些信号量操作(若读者想了解原子操作,可以阅读C++并发编程此书,本人推荐)
segmet()系统调用:
semget()函数第一个参数类似于文件的文件描述符,每一个信号集对应有且只有一个映射。第三个参数表示了信号集的权限和一些信息。
上述信号量的初始情况要明白。
semop系统调用:
semop()函数进行PV操作,改变信号量的值。
上述只要注意semop()函数的第二个参数是struct sembuf类的数组。则semop()调用时,对其中每一个元素都进行原子操作。但一般,上述的信号量操作用的比较少,可以用标准库的全局std::atomic<bool>进行代替,所以上面仅仅了解即可。
2.共享内存:
其都定义在<sys/shm.h>或者<sys/mman.h>
上面注意:mmap()映射和shm_open()创建共享内存不同,后者创建成功后返回的文件描述符可被mmap()函数使用,mmap()映射后返回了地址,则就可以关闭shm_open()的文件描述符了。在程序结束后,要销毁所创建的共享内存,而且还要关闭文件映射,两点,不要忘记了。
shm_unlink()使用的文件路径,而不是文件描述符
下面是简单的多进程服务器:代码注释已经加上(此代码十分重要)。
#include <sys/socket.h>
#include <netinet/in.h>
#include <arpa/inet.h>
#include <assert.h>
#include <stdio.h>
#include <unistd.h>
#include <errno.h>
#include <string.h>
#include <fcntl.h>
#include <stdlib.h>
#include <sys/epoll.h>
#include <signal.h>
#include <sys/wait.h>
#include <sys/mman.h>
#include <sys/stat.h>
#include <fcntl.h>
#define USER_LIMIT 5
#define BUFFER_SIZE 1024
#define FD_LIMIT 65535
#define MAX_EVENT_NUMBER 1024
#define PROCESS_LIMIT 65536
struct client_data
{
sockaddr_in address;
int connfd;
pid_t pid;//处理连接这个子进程的PID
int pipefd[2];//管道连接父子进程
};
static const char* shm_name = "/my_shm";
int sig_pipefd[2];
int epollfd;
int listenfd;
int shmfd;
char* share_mem = 0;
client_data* users = 0;
int* sub_process = 0;/*用进程的PID进行索引,可得到该进程所处理的客户连接的编号*/
int user_count = 0;
bool stop_child = false;
int setnonblocking( int fd )
{
int old_option = fcntl( fd, F_GETFL );
int new_option = old_option | O_NONBLOCK;
fcntl( fd, F_SETFL, new_option );
return old_option;
}
void addfd( int epollfd, int fd )
{
epoll_event event;
event.data.fd = fd;
event.events = EPOLLIN | EPOLLET;
epoll_ctl( epollfd, EPOLL_CTL_ADD, fd, &event );
setnonblocking( fd );
}
void sig_handler( int sig )
{
int save_errno = errno;
int msg = sig;
send( sig_pipefd[1], ( char* )&msg, 1, 0 );
errno = save_errno;
}
void addsig( int sig, void(*handler)(int), bool restart = true )
{
struct sigaction sa;
memset( &sa, '\0', sizeof( sa ) );
sa.sa_handler = handler;
if( restart )
{
sa.sa_flags |= SA_RESTART;
}
sigfillset( &sa.sa_mask );
assert( sigaction( sig, &sa, NULL ) != -1 );
}
void del_resource()
{
close( sig_pipefd[0] );
close( sig_pipefd[1] );
close( listenfd );
close( epollfd );
shm_unlink( shm_name );
delete [] users;
delete [] sub_process;
}
void child_term_handler( int sig )
{
stop_child = true;
}
int run_child( int idx, client_data* users, char* share_mem )
{
epoll_event events[ MAX_EVENT_NUMBER ];
int child_epollfd = epoll_create( 5 );//子进程中又创建了一个epoll池 但不关联父进程
assert( child_epollfd != -1 );
int connfd = users[idx].connfd;
addfd( child_epollfd, connfd );
int pipefd = users[idx].pipefd[1];
addfd( child_epollfd, pipefd );//pipefd[1]加入监听消息
int ret;
addsig( SIGTERM, child_term_handler, false );
while( !stop_child )
{
int number = epoll_wait( child_epollfd, events, MAX_EVENT_NUMBER, -1 );
if ( ( number < 0 ) && ( errno != EINTR ) )
{
printf( "epoll failure\n" );
break;
}
for ( int i = 0; i < number; i++ )
{
int sockfd = events[i].data.fd;
if( ( sockfd == connfd ) && ( events[i].events & EPOLLIN ) )
{
memset( share_mem + idx*BUFFER_SIZE, '\0', BUFFER_SIZE );
ret = recv( connfd, share_mem + idx*BUFFER_SIZE, BUFFER_SIZE-1, 0 );//子进程成功接受到了客户端消息,通知父进程对应客户的id
if( ret < 0 )
{
if( errno != EAGAIN )
{
stop_child = true;
}
}
else if( ret == 0 )
{
stop_child = true;
}
else
{
send( pipefd, ( char* )&idx, sizeof( idx ), 0 );
}
}
else if( ( sockfd == pipefd ) && ( events[i].events & EPOLLIN ) )//管道 父进程给子进程发消息
{
int client = 0;
ret = recv( sockfd, ( char* )&client, sizeof( client ), 0 );
if( ret < 0 )
{
if( errno != EAGAIN )
{
stop_child = true;
}
}
else if( ret == 0 )//父进程关闭
{
stop_child = true;
}
else
{
send( connfd, share_mem + client * BUFFER_SIZE, BUFFER_SIZE, 0 );//主进程通知本进程将第clinnt个客户的数据发送到本进程对应的客户端
}
}
else
{
continue;
}
}
}
close( connfd );
close( pipefd );
close( child_epollfd );
return 0;
}
int main( int argc, char* argv[] )
{
if( argc <= 2 )
{
printf( "usage: %s ip_address port_number\n", basename( argv[0] ) );
return 1;
}
const char* ip = argv[1];
int port = atoi( argv[2] );
int ret = 0;
struct sockaddr_in address;
bzero( &address, sizeof( address ) );
address.sin_family = AF_INET;
inet_pton( AF_INET, ip, &address.sin_addr );
address.sin_port = htons( port );
listenfd = socket( PF_INET, SOCK_STREAM, 0 );
assert( listenfd >= 0 );
ret = bind( listenfd, ( struct sockaddr* )&address, sizeof( address ) );
assert( ret != -1 );
ret = listen( listenfd, 5 );
assert( ret != -1 );
user_count = 0;
users = new client_data [ USER_LIMIT+1 ];
sub_process = new int [ PROCESS_LIMIT ];
for( int i = 0; i < PROCESS_LIMIT; ++i )
{
sub_process[i] = -1;
}
epoll_event events[ MAX_EVENT_NUMBER ];
epollfd = epoll_create( 5 );
assert( epollfd != -1 );
addfd( epollfd, listenfd );
ret = socketpair( PF_UNIX, SOCK_STREAM, 0, sig_pipefd );
assert( ret != -1 );
setnonblocking( sig_pipefd[1] );
addfd( epollfd, sig_pipefd[0] );
addsig( SIGCHLD, sig_handler );//子进程结束 发送SIGCHLD信号, 等待父进程捕捉
addsig( SIGTERM, sig_handler );//进程收到此信号后,会做一些工作优雅退出程序
addsig( SIGINT, sig_handler );//键盘Ctrl+C进行程序退出时会发出此信号,只对当前前台进程,和他的所在的进程组的每个进程都发送SIGINT信号,之后这些进程会执行信号处理程序再终止
addsig( SIGPIPE, SIG_IGN );
bool stop_server = false;
bool terminate = false;
shmfd = shm_open( shm_name, O_CREAT | O_RDWR, 0666 );//创建共享区
assert( shmfd != -1 );
ret = ftruncate( shmfd, USER_LIMIT * BUFFER_SIZE ); //初始化共享区
assert( ret != -1 );
share_mem = (char*)mmap( NULL, USER_LIMIT * BUFFER_SIZE, PROT_READ | PROT_WRITE, MAP_SHARED, shmfd, 0 );//进行映射
assert( share_mem != MAP_FAILED );
close( shmfd );
while( !stop_server )
{
int number = epoll_wait( epollfd, events, MAX_EVENT_NUMBER, -1 );
if ( ( number < 0 ) && ( errno != EINTR ) )
{
printf( "epoll failure\n" );
break;
}
for ( int i = 0; i < number; i++ )
{
int sockfd = events[i].data.fd;
if( sockfd == listenfd )
{
struct sockaddr_in client_address;
socklen_t client_addrlength = sizeof( client_address );
int connfd = accept( listenfd, ( struct sockaddr* )&client_address, &client_addrlength );
if ( connfd < 0 )
{
printf( "errno is: %d\n", errno );
continue;
}
if( user_count >= USER_LIMIT )
{
const char* info = "too many users\n";
printf( "%s", info );
send( connfd, info, strlen( info ), 0 );
close( connfd );
continue;
}
users[user_count].address = client_address;
users[user_count].connfd = connfd;//这里是根据连接顺序来进行储存客户信息的,不是套接字文件描述符
ret = socketpair( PF_UNIX, SOCK_STREAM, 0, users[user_count].pipefd );//为每个连接的客户进行创建通道
assert( ret != -1 );
pid_t pid = fork();
if( pid < 0 )
{
close( connfd );
continue;
}
else if( pid == 0 )
{
close( epollfd );//这里对于创建的子进程,已经进行了EPOLL的关闭 所以子进程进行第二次while循环的时候 在调用epoll_wait函数时就会退出while并且结束
close( listenfd );//父进程负责关闭,不要忘了fork()会增加文件描述符的引用数
close( users[user_count].pipefd[0] );//子进程关闭管道0
close( sig_pipefd[0] );
close( sig_pipefd[1] );
run_child( user_count, users, share_mem );
munmap( (void*)share_mem, USER_LIMIT * BUFFER_SIZE );//因为fork()也会“复制”共享区的资源 所以这里要释放掉
exit( 0 );
}
else
{
close( connfd );//因为是子进程负责客户端的通信,所以父进程要进行关闭
close( users[user_count].pipefd[1] );//父进程关闭管道1
addfd( epollfd, users[user_count].pipefd[0] );//监听管道0,子进程向父进程通知
users[user_count].pid = pid;
sub_process[pid] = user_count;//users数组中的连续的统计,不是以connfd进行索引
//而sub_process是用pid进行索引 统计连接当前的用户量,以sub_process来索引users数组
user_count++;
}
}
else if( ( sockfd == sig_pipefd[0] ) && ( events[i].events & EPOLLIN ) )//父进程监听到信号
{
int sig;
char signals[1024];
ret = recv( sig_pipefd[0], signals, sizeof( signals ), 0 );
if( ret == -1 )
{
continue;
}
else if( ret == 0 )
{
continue;
}
else
{
for( int i = 0; i < ret; ++i )
{
switch( signals[i] )
{
case SIGCHLD:
{
pid_t pid;
int stat;
while ( ( pid = waitpid( -1, &stat, WNOHANG ) ) > 0 )//这里父进程是监听任意一个子进程回收,无阻塞 因为是while,所以进行多个子进程的回收
{
int del_user = sub_process[pid];
sub_process[pid] = -1;//子进程G了 对应的
if( ( del_user < 0 ) || ( del_user > USER_LIMIT ) )
{
printf( "the deleted user was not change\n" );
continue;
}
epoll_ctl( epollfd, EPOLL_CTL_DEL, users[del_user].pipefd[0], 0 );//监听的管道进行关闭
close( users[del_user].pipefd[0] );//关闭对子进程的监听通道
users[del_user] = users[--user_count];//现在的倒数第二个进行覆盖
sub_process[users[del_user].pid] = del_user;//同时更新
printf( "child %d exit, now we have %d users\n", del_user, user_count );
/*del_user记录的是该子进程连接时候的用户数量,因为删除了,所以用总的数量-1进行覆盖*/
}
if( terminate && user_count == 0 )
{
stop_server = true;//最终停止服务是在消除所有子进程后,父进程再退出
}
break;
}
case SIGTERM:
case SIGINT:
{
printf( "kill all the clild now\n" );
//addsig( SIGTERM, SIG_IGN );
//addsig( SIGINT, SIG_IGN );
if( user_count == 0 )
{
stop_server = true;
break;
}
for( int i = 0; i < user_count; ++i )
{
int pid = users[i].pid;
kill( pid, SIGTERM );//调用此信号
}
terminate = true;
break;
}
default:
{
break;
}
}
}
}
}
else if( events[i].events & EPOLLIN )//孩子发来消息
{
int child = 0;
ret = recv( sockfd, ( char* )&child, sizeof( child ), 0 );//孩子传来的是
printf( "read data from child accross pipe\n" );
if( ret == -1 )
{
continue;
}
else if( ret == 0 )
{
continue;
}
else
{
for( int j = 0; j < user_count; ++j )
{
if( users[j].pipefd[0] != sockfd )
{
printf( "send data to child accross pipe\n" );
send( users[j].pipefd[0], ( char* )&child, sizeof( child ), 0 );//有一个子进程收到客户端消息,则主进程通知除了该子进程的其他子进程,去发送消息
}
}
}
}
}
}
del_resource();
return 0;
}
/*父进程监听fd[0],因为子进程fd[1]发送消息,子进程监听fd[1],等待父进程发送消息*/
/*因为是全双工,所以不想pipe是单向流动,而是双向流动,父进程用fd[0]写和读,子进程是fd[1]写和读*/
/*一个进程读写管道只能同时用一个,不能岔开用*/
LINUX中还有很重要的:消息队列,作者能力有限,就不在此讲述。