Linux Kernel 中 Workqueue 使用系统默认队列和创建队列的方法

关于workqueue,网上资料爆翻天。当然即便是这样,对此我们还是有很多话要说 安静
想必大家对workqueue相关的函数(schedule_work 、queue_work、INIT_WORK、create_singlethread_workqueue 等)都不陌生。但说起差异,可能还有许多话需要坐下来慢慢讲。
对于workqueue,与之最为相关的两个东西便是work和queue。
work是用来绑定实际执行函数使用的结构体
queue是用来链接work使用的队列。
具体的结构体,可以自己到/kernel/include/linux/workqueue.h中自行查看,这里不再赘述。
我们想关注的重点在于:
1:系统中是否有default的workqueue供我们使用
2:我们能否创建自己的workqueue?如何创建?
Yes!你说对了。linux系统所提供的workqueue机制中,已经帮忙提供了一个默认的workqueue队列“system_wq”,并提供了一套函数来方便大家直接使用。
例子来了:
          

static struct work_struct work;

          
INIT_WORK(&workrun);
schedule_work(&work);

static void  run(struct work_struct *work)
{
     Do something here!!
}
    
就这么简单的,当然,你也可以用 DECLARE_WORK来完成和 INIT_WORK同样初始化work的工作。区别是 DECLARE_WORK是预编译命令,而 INIT_WORK可以在code中动态初始化。
那么除了调用 schedule_work直接把work放到系统 defaultworkqueue中外,我们还有什么办法可以 初始化自己的workqueue,并且放入work呢?

我们看看函数 schedule_work的定义,一切就真相大白了!
static inline bool  schedule_work(struct work_struct *work)
{
     return  queue_work( system_wq, work);
}
哈哈,原来 schedule_work是把传入的work直接放入了系统的default workqueue “system_wq”中而已。
自然,我们只需要调用 queue_work函数来绑定workqueue和work就ok啦!
初始化 work的方法和前面一样,只要调用 DECLARE_WORKINIT_WORK就好了。
那么我们如何去创建自己的 workqueue呢?
答案是:
#define  alloc_ordered_workqueue(fmt, flags, args…)               \
     alloc_workqueue(fmt, WQ_UNBOUND | __WQ_ORDERED | (flags), 1, ##args)
#define  create_workqueue(name)                              \
     alloc_workqueue((name), WQ_MEM_RECLAIM, 1)

#define  create_freezable_workqueue(name)                    \
     alloc_workqueue((name), WQ_FREEZABLE | WQ_UNBOUND | WQ_MEM_RECLAIM, 1)

#define  create_singlethread_workqueue(name)                    \
     alloc_workqueue((name), WQ_UNBOUND | WQ_MEM_RECLAIM, 1)
我们只要调用如上几种方法的某一种,即可创建属于自己的workqueue了。

kernel中最常见到的函数是 create_singlethread_workqueue。 

我们只要拿这个函数举个例子相信世界就美好了 ,栗子来喽!

static struct workqueue_struct * time_sync_wq;
time_sync_wq =  create_singlethread_workqueue(“ timesync“); // timesync就是workqueue的名字
static  DECLARE_WORK( etr_worketr_work_fn);
queue_work( time_sync_wq, & etr_work);

这样一来,我们的work和自己的workqueue就绑在一起了。
个人认为,自己新建wq最大的好处:可以避免system_wq中被挂的work过多,或者由于某个被挂上去的work处理函数质量不高导致死锁,而导致挂在同一个queue上的我们自己work的handler因为无法被调度到而完蛋了。
当然,建太多自己的workqueue,必然会导致系统调度开销的变大,所以需要取舍。
至于DELAYED_WORK

#define  INIT_DELAYED_WORK(_work, _func)                         \

     __INIT_DELAYED_WORK(_work, _func, 0)

queue_delayed_work

schedule_delayed_work

都和前面类似,就不再赘述了。

随后,咱们可以调用 cancel_delayed_work来把还未执行的work给取消掉。
基本上每次  cancel_delayed_work 之后您都得调用 flush_scheduled_work() 这个函数 , 特别是对于内核模块 , 如果一个模块使用了工作队列机制 , 并且利用了系统的default队列 , 那么在卸载这个模块之前 , 您必须得调用这个函数 , 这叫做刷新一个工作队列 , 也就是说 , 该函数会一直等待 , 直到队列中所有对象都被执行以后才返回 ,从而避免队列调度错误。
函数 cancel_delayed_work_sync的出现,让新的流程变得更加简单了,大家参照kernel中的代码,很容易知道应该怎么用。
最后别忘了调用 destroy_workqueue等清尾的函数哦~~

问题来了:

如果我们在handler的执行过程中,同时再次调用调度函数queue_work,那么我们的handler会被执行多少次呢?(究竟是执行被调度的次数,还是就只执行一次呢?)


解答:

这个问题比较有意思,写了这个例子来验证答案(例子跑在android 4.4 code base中)

sample test code:

static struct workqueue_struct *test_wq;


static void try_to_test(struct work_struct *work)
{
          printk(“[bevis] :wq into \n”);
          msleep(5*1000);  //5s
          printk(“[bevis] :wq out \n”);         
}
static DECLARE_WORK(mytest_work, try_to_test);
gsensor probe function end add :
    test_wq = alloc_ordered_workqueue(“test_wq”, 0); //初始化一个单独的工作队列
     int a = 0;
     for(a=0 ; a<3 ; a++){
     printk(“[bevis] : read func (%d) before \n”,a);
     queue_work(test_wq, &mytest_work); //让这个队列开始被调度
     printk(“[bevis] : read func (%d) msleep 2s \n”,a);
     msleep(2*1000);
     printk(“[bevis] : read func (%d) after \n”,a);
     }

log如下:


10-16 14:10:41.940 I/KERNEL  (  109): [    6.954658] [bevis] : read func (0) before
10-16 14:10:41.940 I/KERNEL  (  109): [    6.954727] [bevis] : read func (0) msleep 2s
10-16 14:10:41.940 I/KERNEL  (  109): [    6.954742] [bevis] :wq into
10-16 14:10:43.950 I/KERNEL  (  109): [    8.960997] [bevis] : read func (0) after
10-16 14:10:43.950 I/KERNEL  (  109): [    8.961085] [bevis] : read func (1) before
10-16 14:10:43.950 I/KERNEL  (  109): [    8.961155] [bevis] : read func (1) msleep 2s
10-16 14:10:45.960 I/KERNEL  (  109): [   10.971954] [bevis] : read func (1) after
10-16 14:10:45.960 I/KERNEL  (  109): [   10.972076] [bevis] : read func (2) before
10-16 14:10:45.960 I/KERNEL  (  109): [   10.972132] [bevis] : read func (2) msleep 2s
10-16 14:10:46.950 I/KERNEL  (    6):  [   11.961884] [bevis] :wq out
10-16 14:10:46.950 I/KERNEL  (    6):  [   11.961953] [bevis] :wq into
10-16 14:10:47.970 I/KERNEL  (  109): [   12.982276] [bevis] : read func (2) after
10-16 14:10:51.960 I/KERNEL  (    6):  [   16.973719] [bevis] :wq out 


看到了吧,虽然我们使用queue_work函数调度了三次handler,但实际上wq的handler只被执行了两次。
如果把probe函数的delay直接拿掉,你更加会发现,即使wq被调度三次,handler却实际上只跑了一次。

结论

如果wq被调度的时候,wq中的这个handler正在执行过程中,则这次调度会被遗弃。只有handler执行完成并返回后,下次调度才会真正的生效。

kernel这么做的原因,我猜想应该是为了防止,当某个wq的handler在执行过程中因为资源无法获取而暂时阻塞时,
不会因为其他进程再次调度了该wq而导致出现线程实例的不断累加。
实际上,在绝大多数情况下,我们只需要一个handler实例来帮忙做事就够了,例如earlysuspend的处理函数中,只要userspace进行想睡眠,那就直接调度suspend wq的handler,而不必管再关心上次的suspend过程是否有阻塞。
这样一来,逻辑就清爽多了。对吧!


  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值