我已经观察到,当
linux futexes被争夺时,系统花费大量的时间在螺旋锁中.我注意到这是一个问题,即使没有直接使用futex,而且当调用malloc / free,rand,glib mutex调用以及调用futex的其他系统/库调用时也是这样.有没有办法摆脱这种行为?
我正在使用CentOS 6.3与内核2.6.32-279.9.1.el6.x86_64.我也试过最新的稳定内核3.6.6直接从kernel.org下载.
最初,问题发生在具有16GB RAM的24核服务器上.该进程有700个线程.用“perf记录”收集的数据表明,spinlock是从__lll_lock_wait_private和__lll_unlock_wake_private调用的futex调用的,正在消耗CPU时间的50%.当我使用gdb停止进程时,回溯显示对__lll_lock_wait_private __lll_unlock_wake_private的调用由malloc和free组成.
我试图减少这个问题,所以我写了一个简单的程序,显示它确实是引发螺旋锁问题的未来.
启动8个线程,每个线程执行以下操作:
//...
static GMutex *lMethodMutex = g_mutex_new ();
while (true)
{
static guint64 i = 0;
g_mutex_lock (lMethodMutex);
// Perform any operation in the user space that needs to be protected.
// The operation itself is not important. It's the taking and releasing
// of the mutex that matters.
++i;
g_mutex_unlock (lMethodMutex);
}
//...
我在一台8核机器上运行这个机器,内存很大.
使用“top”,我观察到机器10%空闲,10%在用户模式,90%在系统模式.
使用“perf top”,我观察到如下:
50.73% [kernel] [k] _spin_lock
11.13% [kernel] [k] hpet_msi_next_event
2.98% libpthread-2.12.so [.] pthread_mutex_lock
2.90% libpthread-2.12.so [.] pthread_mutex_unlock
1.94% libpthread-2.12.so [.] __lll_lock_wait
1.59% [kernel] [k] futex_wake
1.43% [kernel] [k] __audit_syscall_exit
1.38% [kernel] [k] copy_user_generic_string
1.35% [kernel] [k] system_call
1.07% [kernel] [k] schedule
0.99% [kernel] [k] hash_futex
我希望这段代码在spinlock中花费一些时间,因为futex代码必须获取futex等待队列.我也期望代码在系统中花费一些时间,因为在这段代码中,用户空间中运行的代码很少.然而,在螺旋锁中花费的时间的50%似乎是过度的,特别是当这个cpu时间需要做其他有用的工作时.