linux 多队列块层,Linux块层多队列之引入内核

e7d238b81a243a891265c015d030c211.png

本文转载自微信公众号「相遇Linux」,作者JeffXie。转载本文请联系相遇Linux公众号。

Linux块设备多队列机制在Linux3.13中引入,刚开始引入多队列时是多队列和单队列并存。

想研究多队列,当然还是以原始patch的方式研究最靠谱了。

patch原始代码:

git://git.kernel.org/pub/scm/linux/kernel/git/axboe/linux-block.git

分支:linux-block/v3.10-blk-mq

首先过目一下多队列架构:

c0b6c73219da35872acaddaa68a93088.png

以读IO为例,单队列和多队列相同的执行路径:

read_pages()

{

...

blk_start_plug() /* 进程准备蓄流 */

mapping->a_ops->readpages() /* 蓄流 */

blk_finish_plug() /* 进程开始泄流 */

...

}

io_schedule() 进程蓄流之后等待io完成

(在blk_mq_make_request()函数中request的数目大于或者等于16

request_count >= BLK_MAX_REQUEST_COUNT

不需要调用io_schedule(),直接泄流到块设备驱动)

mapping->a_ops->readpages() 会一直调用q->make_request_fn()

generic_make_request()

q->make_request_fn() 调用blk_queue_bio()或者

多队列blk_queue_make_request()

__elv_add_request()

为什么引入多队列:多队列相对与单队列来说,每个cpu上都有一个软队列(使用blk_mq_ctx结构表示)避免插入request的时候使用spinlock锁,而且如今的高速存储设备,比如支持nvme的ssd(小弟刚买了一块,速度确实快),访问延迟非常小,而且本身硬件就支持多队列,(引入的多队列使用每个硬件队列hctx->delayed_work替换了request_queue->delay_work) 以前的单队列架构已经不能榨干它的性能,而且成为了它的累赘,单队列在插入request和泄流到块设备驱动时,一直有request_queue上的全局spinlock锁,搞得人们都想直接bypass块层的冲动。

单队列插入request时会使用request_queue上的全局spinlock锁

blk_queue_bio()

{

...

spin_lock_irq(q->queue_lock);

elv_merge()

spin_lock_irq(q->queue_lock);

...

}

单队列泄流到块设备驱动时也是使用request_queue上的全局spinlock锁:

struct request_queue *blk_alloc_queue_node()

INIT_DELAYED_WORK(&q->delay_work, blk_delay_work);

blk_delay_work()

__blk_run_queue()

q->request_fn(q);

__blk_run_queue()函数必须在队列锁中,也就是spin_lock_irq(q->queue_lock);

281  * __blk_run_queue - run a single device queue

282  * @q:  The queue torun

283  *

284  * Description:

285  *    See @blk_run_queue. This variant must be called withthe queue lock

286  *    held andinterrupts disabled.

287  */

288 void __blk_run_queue(struct request_queue *q)

289 {

290         if (unlikely(blk_queue_stopped(q)))

291                 return;

292

293         __blk_run_queue_uncond(q);

294 }

多队列插入request时没有使用spinlock锁:

blk_mq_insert_requests()

__blk_mq_insert_request()

struct blk_mq_ctx *ctx = rq->mq_ctx; (每cpu上的blk_mq_ctx)

list_add_tail(&rq->queuelist, &ctx->rq_list)

多队列泄流到块设备驱动也没有使用spinlock锁:

staticintblk_mq_init_hw_queues()

INIT_DELAYED_WORK(&hctx->delayed_work, blk_mq_work_fn);

708 staticvoid blk_mq_work_fn(struct work_struct *work)

709 {

710         struct blk_mq_hw_ctx *hctx;

711

712         hctx = container_of(work, struct blk_mq_hw_ctx, delayed_work.work);

713         __blk_mq_run_hw_queue(hctx);

714 }

__blk_mq_run_hw_queue()

没有spinlock锁

q->mq_ops->queue_rq(hctx, rq); 执行多队列上的->queue_rq()回调函数

从下图可以看出系统使用多队列之后的性能提升:

(我自己没测试过性能,凭客观想象应该与下列图相符:) )

9fe282b3061917b656e38d47b90daef7.png

【编辑推荐】

【责任编辑:武晓燕 TEL:(010)68476606】

点赞 0

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值