想到写这个是因为昨天看到Unix下服务器的模式,其中一种有一个线程用来accept,并将请求放在有界临界区中,其他工作线程池通过访问有界临界区获取请求,执行请求。所以就想追溯一下使用ACE_Message_Queue实现这种模式的可行性。对于ACE_Message_Queue其他功能不做深究。
ACE函数看上有这么两种Function X和Function X_i。后面加上下划线表示操作,X实现就是先加锁,然后执行X_i。ACE_Message_Queue内部的数据结构并没有什么稀奇的,只是一个链表,所以关键还是探究在系统级别上,可能涉及到的效率问题。ACE_Message_Queue继承于ACE_Message_Queue_Base.
相对来说ACE_Message_Queue_Base内容比较少,就像普通基类一样,定义了接口的标准。另外就是定义了MessageQueue的状态。
对于ACE_Message_Queue来说,ACE_SYNCH_MUTEX_T lock_; ACE_SYNCH_CONDITION_T not_empty_cond_; ACE_SYNCH_CONDITION_T not_full_cond_;其实都是同样的一个lock;那么我们就来看看这个lock到底是什么?从
ACE_MT_SYNCH的定义可知,所用的不过就是
ACE_Thread_Mutex
,
ACE_Condition_Thread_Mutex,其中
ACE_Condition_Thread_Mutex内部用的锁是
ACE_Thread_Mutex,那么关键的效率问题就是
ACE_Thread_Mutex的效率。追溯到内部,在Win32中用的是临界区,在Unix中使用的是Mutex,效率应该可以得到保证。对于
ACE_Condition_Thread_Mutex,在Win32下使用的是WaitForSingleObject,在Posix下使用的是sem_wait,效率可以得到保证。