一、基本的实现模型:
线程池的实现模型主要有两种:
1、半同步/半异步模型
在这种模型中,一个侦听线程负责接受请求,并在某个队列中缓冲它们。另外一组工作者线程负责处理请求。因此接受请求的线程并不是处理请求的线程。
2、领导者/跟随者模型
在这种模型中,有一个线程是领导者,其余线程是线程中的跟随者。当请求到达时,领导者首先获取请求,并在跟随者中选取一个作为新的领导者,然后继续处理请求。因此接受请求的线程就是处理请求的线程。
二、半同步/半异步模型
在这种模型中,线程池划分成三个不同的层次:
异步层,负责接受异步请求
排队层,对请求进行缓冲
同步层,多个阻塞在排队层上的处理线程
一般的半同步/半异步模型会有一个manager线程用于请求消息转发和调度,和一组worker线程构成线程池由manager来统一调度。
下面是一个半同步/半异步模型的示例,代码摘自APG范例threadpool.cpp,在ACE的源代码发布包中可以找到。下面的代码增加了相关注释,调整了缩进以便于阅读。范例中主要使用ACE一下几个类:ACE_Task,ACE_Message_Block,ACE_Condition,ACE_Unbounded_Queue。
在这个例子中,异步层被实现为ACE_Task类的子类Manager,它负责在它的底层消息队列上接受请求。
工作者线程有Worker实现,它也是ACE_Task的子类。
首先看Manager类的实现:
{
public :
enum {POOL_SIZE = 5 , MAX_TIMEOUT = 5 };
Manager ()
: shutdown_( 0 ), workers_lock_(), workers_cond_(workers_lock_)
{
ACE_TRACE (ACE_TEXT ( " Manager::Manager " ));
}
/* 线程处理函数 */
int svc ( void )
{
ACE_TRACE (ACE_TEXT ( " Manager::svc " ));
ACE_DEBUG ((LM_INFO, ACE_TEXT ( " (%t) Manager started " )));
// Create pool.
create_worker_pool ();
while ( ! done ())
{
ACE_Message_Block * mb = 0 ;
ACE_Time_Value tv (( long )MAX_TIMEOUT);
tv += ACE_OS::time ( 0 );
// Get a message request.
if ( this -> getq (mb, & tv) < 0 )
{
shut_down ();
break ;
}
// Choose a worker.
Worker * worker = 0 ;
/*
这对大括号中的代码从worker线程池中获取一个工作线程,线程池由
this->workers_lock_互斥体加以保护,如果没有worker可用,manager
会阻塞在workers_lock_条件变量上,等待某个线程回来工作
*/
{
ACE_GUARD_RETURN (ACE_Thread_Mutex,
worker_mon, this -> workers_lock_, - 1 );
/*
阻塞在workers_lock_.wait()上直到由worker可用,当某个worker回来后
会把自己放到线程池队列上,同时通过触发workers_cond_来通知manager
*/
while ( this -> workers_.is_empty ())
workers_cond_.wait ();
/* 将获取的worker从线程池队列中删除 */
this -> workers_.dequeue_head (worker);
}
// Ask the worker to do the job.
// 将请求消息放入到worker的消息队列中
worker -> putq (mb);
}
return 0 ;
}
int shut_down ( void );
ACE_thread_t thread_id (Worker * worker);
/* 提供给worker的接口,用于在worker完成处理后,将自己放入到线程池队
列,并通知manager */
virtual int return_to_work (Worker * worker)
{
ACE_GUARD_RETURN (ACE_Thread_Mutex,
worker_mon, this -> workers_lock_, - 1 );
ACE_DEBUG ((LM_DEBUG,
ACE_TEXT ( " (%t) Worker %d returning to work. " ),
worker -> thr_mgr () -> thr_self ()));
// 将worker放入到线程池队列
this -> workers_.enqueue_tail (worker);
// 触发条件变量,通知manager
this -> workers_cond_.signal ();
return 0 ;
}
private :
// 创建worker线程池
int create_worker_pool ( void )
{
ACE_GUARD_RETURN (ACE_Thread_Mutex,
worker_mon,
this -> workers_lock_,
- 1 );
for ( int i = 0 ; i < POOL_SIZE; i ++ )
{
Worker * worker;
// 创建worker
ACE_NEW_RETURN (worker, Worker ( this ), - 1 );
// 放入线程池队列
this -> workers_.enqueue_tail (worker);
// 激活线程,调用该函数后,worker线程被创建,由于worker
// 是ACE_Task的子类,线程激活后,从svc函数开始执行
worker -> activate ();
}
return 0 ;
}
int done ( void );
private :
int shutdown_;
/* workers_lock_ 线程池队列的互斥体,在对线程池进行操作时,需要通过互斥锁来保护
所以在所有的线程池队列队列操作前都有这样的语句:
ACE_GUARD_RETURN (ACE_Thread_Mutex,
worker_mon, this->workers_lock_, -1);
*/
ACE_Thread_Mutex workers_lock_;
ACE_Condition < ACE_Thread_Mutex > workers_cond_;
/* 线程池队列 */
ACE_Unbounded_Queue < Worker * > workers_;
};
几点说明:
ACE_GUARD_RETURN宏的作用:这个宏会创建一个ACE_GUARD对象,ACE_GUARD对象用于对互斥锁的获取和释放。ACE_GUARD对象利用了对象构造和析构函数完成锁的获取和释放,也就是说在创建ACE_GUARD对象时获取,在析构ACE_GUARD对象时释放锁。在Manager的svc函数中,获取worker的操作使用一对花括号扩了起来,目的就是通过ACE_GUARD对象的作用域,在括号结束时将锁释放。
示例代码中略去了shut_down函数的实现,该函数主要是通过向worker发送MB_HANGUP消息来通知worker线程结束处理。
下面看一下worker类的实现:
{
public :
Worker (IManager * manager) : manager_(manager) { }
virtual int svc ( void )
{
thread_id_ = ACE_Thread::self ();
while ( 1 )
{
ACE_Message_Block * mb = 0 ;
if ( this -> getq (mb) == - 1 )
ACE_ERROR_BREAK
((LM_ERROR, ACE_TEXT ( " %p " ), ACE_TEXT ( " getq " )));
if (mb -> msg_type () == ACE_Message_Block::MB_HANGUP)
{
ACE_DEBUG ((LM_INFO,
ACE_TEXT ( " (%t) Shutting down " )));
mb -> release ();
break ;
}
// Process the message.
process_message (mb);
// Return to work.
// 这里会将自己放到线程池中,并通过workers_cond_来通知manager
this -> manager_ -> return_to_work ( this );
}
return 0 ;
}
// Listing 2
ACE_thread_t thread_id ( void )
{
return thread_id_;
}
private :
void process_message (ACE_Message_Block * mb)
{
ACE_TRACE (ACE_TEXT ( " Worker::process_message " ));
int msgId;
ACE_OS::memcpy ( & msgId, mb -> rd_ptr (), sizeof ( int ));
mb -> release ();
ACE_DEBUG ((LM_DEBUG,
ACE_TEXT ( " (%t) Started processing message %d " ),
msgId));
ACE_OS::sleep ( 3 );
ACE_DEBUG ((LM_DEBUG,
ACE_TEXT ( " (%t) Finished processing message %d " ),
msgId));
}
IManager * manager_;
ACE_thread_t thread_id_;
};
worker类的实现比较简单,在线程处理函数中进行死循环,阻塞在自己的队列上获取请求。
最后是main函数的实现:
{
Manager tp;
tp.activate ();
// Wait for a moment every time you send a message.
ACE_Time_Value tv;
tv.msec ( 100 );
ACE_Message_Block * mb;
for ( int i = 0 ; i < 30 ; i ++ )
{
ACE_NEW_RETURN
(mb, ACE_Message_Block( sizeof ( int )), - 1 );
ACE_OS::memcpy (mb -> wr_ptr (), & i, sizeof ( int ));
ACE_OS::sleep (tv);
// Add a new work item.
// 这里将请求消息首先发到了manager线程,由manager线程负责分发
tp.putq (mb);
}
// 主线程等待子线程结束
ACE_Thread_Manager::instance () -> wait ();
return 0 ;
}
从上面的例子可以看出,所有的请求消息由Manager线程接受,然后由manager线程在分发到线程池中的worker线程中。由于这样的设计模型,在请求消息处理时会发生线程切换,这肯定会造成同步和上下文切换的开销。