【驱动】块设备驱(三)-IO调度层

前言

每个块设备驱动程序都维持着自己的请求队列,它包含设备待处理的请求链表。如果磁盘控制器正在处理几个磁盘,那么通常每个物理块设备都有一个请求队列。在每个请求队列上单独执行1/O调度,这样可以提高磁盘的性能。

关键API

struct request_queue

请求队列是由一个大的数据结构request_queue表示的。每个磁盘对应一个request_queue。该队列挂的就是request请求。

struct request_queue {
	/*
	 * Together with queue_head for cacheline sharing
	 */
	struct list_head	queue_head;
	struct request		*last_merge;
	struct elevator_queue	*elevator;
	int			nr_rqs[2];	/* # allocated [a]sync rqs */
	int			nr_rqs_elvpriv;	/* # allocated rqs w/ elvpriv */

	/*
	 * If blkcg is not used, @q->root_rl serves all requests.  If blkcg
	 * is used, root blkg allocates from @q->root_rl and all other
	 * blkgs from their own blkg->rl.  Which one to use should be
	 * determined using bio_request_list().
	 */
	struct request_list	root_rl;

	request_fn_proc		*request_fn;
	make_request_fn		*make_request_fn;
	prep_rq_fn		*prep_rq_fn;
	unprep_rq_fn		*unprep_rq_fn;
	softirq_done_fn		*softirq_done_fn;
	rq_timed_out_fn		*rq_timed_out_fn;
	dma_drain_needed_fn	*dma_drain_needed;
	lld_busy_fn		*lld_busy_fn;

	struct blk_mq_ops	*mq_ops;

	unsigned int		*mq_map;

	/* sw queues */
	struct blk_mq_ctx __percpu	*queue_ctx;
	unsigned int		nr_queues;

	/* hw dispatch queues */
	struct blk_mq_hw_ctx	**queue_hw_ctx;
	unsigned int		nr_hw_queues;

	/*
	 * Dispatch queue sorting
	 */
	sector_t		end_sector;
	struct request		*boundary_rq;

	/*
	 * Delayed queue handling
	 */
	struct delayed_work	delay_work;

	struct backing_dev_info	backing_dev_info;

	/*
	 * The queue owner gets to use this for whatever they like.
	 * ll_rw_blk doesn't touch it.
	 */
	void			*queuedata;

	/*
	 * various queue flags, see QUEUE_* below
	 */
	unsigned long		queue_flags;

	/*
	 * ida allocated id for this queue.  Used to index queues from
	 * ioctx.
	 */
	int			id;

	/*
	 * queue needs bounce pages for pages above this limit
	 */
	gfp_t			bounce_gfp;

	/*
	 * protects queue structures from reentrancy. ->__queue_lock should
	 * _never_ be used directly, it is queue private. always use
	 * ->queue_lock.
	 */
	spinlock_t		__queue_lock;
	spinlock_t		*queue_lock;

	/*
	 * queue kobject
	 */
	struct kobject kobj;

	/*
	 * mq queue kobject
	 */
	struct kobject mq_kobj;

#ifdef  CONFIG_BLK_DEV_INTEGRITY
	struct blk_integrity integrity;
#endif	/* CONFIG_BLK_DEV_INTEGRITY */

#ifdef CONFIG_PM
	struct device		*dev;
	int			rpm_status;
	unsigned int		nr_pending;
#endif

	/*
	 * queue settings
	 */
	unsigned long		nr_requests;	/* Max # of requests */
	unsigned int		nr_congestion_on;
	unsigned int		nr_congestion_off;
	unsigned int		nr_batching;

	unsigned int		dma_drain_size;
	void			*dma_drain_buffer;
	unsigned int		dma_pad_mask;
	unsigned int		dma_alignment;

	struct blk_queue_tag	*queue_tags;
	struct list_head	tag_busy_list;

	unsigned int		nr_sorted;
	unsigned int		in_flight[2];
	/*
	 * Number of active block driver functions for which blk_drain_queue()
	 * must wait. Must be incremented around functions that unlock the
	 * queue_lock internally, e.g. scsi_request_fn().
	 */
	unsigned int		request_fn_active;

	unsigned int		rq_timeout;
	struct timer_list	timeout;
	struct list_head	timeout_list;

	struct list_head	icq_list;
#ifdef CONFIG_BLK_CGROUP
	DECLARE_BITMAP		(blkcg_pols, BLKCG_MAX_POLS);
	struct blkcg_gq		*root_blkg;
	struct list_head	blkg_list;
#endif

	struct queue_limits	limits;

	/*
	 * sg stuff
	 */
	unsigned int		sg_timeout;
	unsigned int		sg_reserved_size;
	int			node;
#ifdef CONFIG_BLK_DEV_IO_TRACE
	struct blk_trace	*blk_trace;
#endif
	/*
	 * for flush operations
	 */
	unsigned int		flush_flags;
	unsigned int		flush_not_queueable:1;
	struct blk_flush_queue	*fq;

	struct list_head	requeue_list;
	spinlock_t		requeue_lock;
	struct work_struct	requeue_work;

	struct mutex		sysfs_lock;

	int			bypass_depth;
	atomic_t		mq_freeze_depth;

#if defined(CONFIG_BLK_DEV_BSG)
	bsg_job_fn		*bsg_job_fn;
	int			bsg_job_size;
	struct bsg_class_device bsg_dev;
#endif

#ifdef CONFIG_BLK_DEV_THROTTLING
	/* Throttle data */
	struct throtl_data *td;
#endif
	struct rcu_head		rcu_head;
	wait_queue_head_t	mq_freeze_wq;
	struct percpu_ref	q_usage_counter;
	struct list_head	all_q_node;

	struct blk_mq_tag_set	*tag_set;
	struct list_head	tag_set_list;
	struct bio_set		*bio_split;

	bool			mq_sysfs_init_done;
};
  • queue_head:请求队列的头部,用于与其他结构体共享缓存行。
  • last_merge:指向最后一个合并的请求。
  • elevator:指向调度器队列的指针。
  • nr_rqs:分别表示已分配的同步和异步请求的数量。
  • nr_rqs_elvpriv:已分配的具有 elvpriv 的请求的数量。
  • root_rl:用于块控制组的根请求列表。
  • request_fn:请求处理函数。
  • make_request_fn:构建请求的函数。
  • prep_rq_fn:准备请求的函数。
  • unprep_rq_fn:取消准备请求的函数。
  • softirq_done_fn:软中断完成处理函数。
  • rq_timed_out_fn:请求超时处理函数。
  • dma_drain_needed:DMA排空所需的函数。
  • lld_busy_fn:低级驱动程序繁忙处理函数。
  • mq_ops:多队列操作的函数指针集合。
  • mq_map:用于多队列映射的位图。
  • queue_ctx:用于软件队列的上下文。
  • nr_queues:软件队列的数量。
  • queue_hw_ctx:用于硬件调度队列的上下文。
  • nr_hw_queues:硬件调度队列的数量。
  • end_sector:队列的结束扇区。
  • boundary_rq:边界请求。
  • delay_work:延迟处理工作。
  • backing_dev_info:后备设备信息。
  • queuedata:队列所有者可以使用的指针。
  • queue_flags:队列的标志位。
  • id:为该队列分配的唯一ID。
  • bounce_gfp:需要跳转页面的限制。
  • __queue_lockqueue_lock:保护队列结构的自旋锁。
  • kobj:队列的内核对象。
  • mq_kobj:多队列的内核对象。
  • integrity:用于块设备完整性的结构体。
  • dev:设备结构指针。
  • rpm_status:设备的电源管理状态。
  • nr_pending:挂起请求的数量。
  • nr_requests:队列允许的最大请求数量。
  • nr_congestion_onnr_congestion_off:拥塞控制相关的参数。
  • nr_batching:批量请求的数量。
  • dma_drain_size:DMA排空的大小。
  • dma_drain_buffer:DMA排空缓冲区的指针。
  • dma_pad_maskdma_alignment:DMA对齐相关的参数。
  • queue_tags:队列标签的指针。
  • tag_busy_list:标签繁忙列表。
  • nr_sorted:已排序的请求数量。
  • in_flight:请求在飞行中的数量。
  • request_fn_active:活动的块驱动程序函数的数量。
  • rq_timeout:请求超时时间。
  • timeouttimeout_list:请求超时处理相关的计时器和列表。
  • icq_list:IO控制队列的列表。
  • blkcg_pols:用于块控制组的位图。
  • root_blkg:根块组调度的指针。
  • blkg_list:块组的列表。
  • limits:队列的限制。
  • sg_timeoutsg_reserved_size:用于散列表的参数。
  • node:队列所在的NUMA节点。
  • blk_trace:用于块设备IO跟踪的指针。
  • flush_flagsflush_not_queueable:刷新操作相关的标志。
  • fq:刷新队列。
  • requeue_listrequeue_lockrequeue_work:用于重新排队的列表、自旋锁和工作。
  • sysfs_lock:用于保护sysfs文件系统的锁。
  • bypass_depth:绕过深度。
  • mq_freeze_depth:多队列冻结的深度。
  • bsg_job_fnbsg_job_sizebsg_dev:用于块SG(SCSI Generic)的作业处理。
  • td:限流数据。
  • rcu_head:用于RCU(Read-Copy-Update)的头部。
  • mq_freeze_wq:用于多队列冻结的等待队列头。
  • q_usage_counter:队列使用计数器。
  • all_q_node:所有队列的节点。
  • tag_set:标签集的指针。
  • tag_set_list:标签集的列表。
  • bio_split:用于拆分BIO的指针。
  • mq_sysfs_init_done:多队列sysfs初始化完成标志。

struct request

每个块设备的待处理请求都是用一个请求描述符来表示的,一个request中包含了一个或多个bio,为什么要有request这个结构呢?它存在的目的就是为了进行io的调度。通过request这个辅助结构,我们来给bio进行某种调度方法的排序,从而最大化地提高磁盘访问速度。

struct request {
	struct list_head queuelist;
	union {
		struct call_single_data csd;
		unsigned long fifo_time;
	};

	struct request_queue *q;
	struct blk_mq_ctx *mq_ctx;

	u64 cmd_flags;
	unsigned cmd_type;
	unsigned long atomic_flags;
	
	int cpu;

	/* the following two fields are internal, NEVER access directly */
	unsigned int __data_len;	/* total data len */
	sector_t __sector;		/* sector cursor */

	struct bio *bio;
	struct bio *biotail;

	/*
	 * The hash is used inside the scheduler, and killed once the
	 * request reaches the dispatch list. The ipi_list is only used
	 * to queue the request for softirq completion, which is long
	 * after the request has been unhashed (and even removed from
	 * the dispatch list).
	 */
	union {
		struct hlist_node hash;	/* merge hash */
		struct list_head ipi_list;
	};

	/*
	 * The rb_node is only used inside the io scheduler, requests
	 * are pruned when moved to the dispatch queue. So let the
	 * completion_data share space with the rb_node.
	 */
	union {
		struct rb_node rb_node;	/* sort/lookup */
		void *completion_data;
	};

	/*
	 * Three pointers are available for the IO schedulers, if they need
	 * more they have to dynamically allocate it.  Flush requests are
	 * never put on the IO scheduler. So let the flush fields share
	 * space with the elevator data.
	 */
	union {
		struct {
			struct io_cq		*icq;
			void			*priv[2];
		} elv;

		struct {
			unsigned int		seq;
			struct list_head	list;
			rq_end_io_fn		*saved_end_io;
		} flush;
	};

	struct gendisk *rq_disk;
	struct hd_struct *part;
	unsigned long start_time;
#ifdef CONFIG_BLK_CGROUP
	struct request_list *rl;		/* rl this rq is alloced from */
	unsigned long long start_time_ns;
	unsigned long long io_start_time_ns;    /* when passed to hardware */
#endif
	/* Number of scatter-gather DMA addr+len pairs after
	 * physical address coalescing is performed.
	 */
	unsigned short nr_phys_segments;
#if defined(CONFIG_BLK_DEV_INTEGRITY)
	unsigned short nr_integrity_segments;
#endif

	unsigned short ioprio;

	void *special;		/* opaque pointer available for LLD use */

	int tag;
	int errors;

	/*
	 * when request is used as a packet command carrier
	 */
	unsigned char __cmd[BLK_MAX_CDB];
	unsigned char *cmd;
	unsigned short cmd_len;

	unsigned int extra_len;	/* length of alignment and padding */
	unsigned int sense_len;
	unsigned int resid_len;	/* residual count */
	void *sense;

	unsigned long deadline;
	struct list_head timeout_list;
	unsigned int timeout;
	int retries;

	/*
	 * completion callback.
	 */
	rq_end_io_fn *end_io;
	void *end_io_data;

	/* for bidi */
	struct request *next_rq;

	ktime_t			lat_hist_io_start;
	int			lat_hist_enabled;
};
  • queuelist:用于将请求链接到请求队列中的链表节点。
  • csdfifo_time:用于处理单个CPU的调用数据和FIFO时间。
  • q:指向请求队列的指针。
  • mq_ctx:指向块多队列上下文的指针。
  • cmd_flags:命令标志。
  • cmd_type:命令类型。
  • atomic_flags:原子标志。
  • cpu:处理请求的CPU编号。
  • __data_len:数据长度。
  • __sector:扇区位置。
  • biobiotail:与请求相关联的BIO(块输入/输出)链表。
  • hashipi_list:用于请求合并的哈希节点和IPI(中断处理程序间的插入)列表。
  • rb_nodecompletion_data:用于在IO调度器中进行排序和查找的红黑树节点,以及完成数据。
  • elvflush:用于IO调度器的指针和特殊字段。
  • rq_disk:关联的块设备。
  • part:关联的分区。
  • start_time:请求开始时间。
  • rl:分配请求的请求列表。
  • start_time_nsio_start_time_ns:请求开始时间的纳秒表示。
  • nr_phys_segmentsnr_integrity_segments:物理和完整性段的数量。
  • ioprio:IO优先级。
  • special:用于低级驱动程序使用的不透明指针。
  • tag:请求的标签。
  • errors:请求的错误数。
  • __cmdcmdcmd_len:命令缓冲区和命令长度。
  • extra_len:对齐和填充的长度。
  • sense_lenresid_len:感知数据的长度和剩余计数。
  • sense:感知数据。
  • deadline:请求的截止时间。
  • timeout_listtimeoutretries:超时处理相关的链表、超时时间和重试次数。
  • end_ioend_io_data:请求完成时的回调函数和数据。
  • next_rq:下一个请求(用于双向请求)。
  • lat_hist_io_startlat_hist_enabled:用于延迟直方图的IO开始时间和启用标志。

generic_make_request

请求到达block层后,通过generic_make_request这个入口函数,在通过调用一系列相关的函数把bio变成了request。具体的做法如下:如果几个bio要读写的区域是连续的,即积攒成一个request(一个request上挂多个连续的bio,就是我们通常说的“合并bio请求”),如果一个bio跟其他的bio都连不上,那它就自己创建一个新的request,把自己挂在这个request下。当然,合并bio的个数也是有限的,这个可以通过配置文件配置。

blk_qc_t generic_make_request(struct bio *bio)
{
	/*
	 * bio_list_on_stack[0] contains bios submitted by the current
	 * make_request_fn.
	 * bio_list_on_stack[1] contains bios that were submitted before
	 * the current make_request_fn, but that haven't been processed
	 * yet.
	 */
	struct bio_list bio_list_on_stack[2];
	blk_qc_t ret = BLK_QC_T_NONE;

	if (!generic_make_request_checks(bio))
		goto out;

	/*
	 * We only want one ->make_request_fn to be active at a time, else
	 * stack usage with stacked devices could be a problem.  So use
	 * current->bio_list to keep a list of requests submited by a
	 * make_request_fn function.  current->bio_list is also used as a
	 * flag to say if generic_make_request is currently active in this
	 * task or not.  If it is NULL, then no make_request is active.  If
	 * it is non-NULL, then a make_request is active, and new requests
	 * should be added at the tail
	 */
	if (current->bio_list) {
		bio_list_add(&current->bio_list[0], bio);
		goto out;
	}

	/* following loop may be a bit non-obvious, and so deserves some
	 * explanation.
	 * Before entering the loop, bio->bi_next is NULL (as all callers
	 * ensure that) so we have a list with a single bio.
	 * We pretend that we have just taken it off a longer list, so
	 * we assign bio_list to a pointer to the bio_list_on_stack,
	 * thus initialising the bio_list of new bios to be
	 * added.  ->make_request() may indeed add some more bios
	 * through a recursive call to generic_make_request.  If it
	 * did, we find a non-NULL value in bio_list and re-enter the loop
	 * from the top.  In this case we really did just take the bio
	 * of the top of the list (no pretending) and so remove it from
	 * bio_list, and call into ->make_request() again.
	 */
	BUG_ON(bio->bi_next);
	bio_list_init(&bio_list_on_stack[0]);
	current->bio_list = bio_list_on_stack;
	do {
		struct request_queue *q = bdev_get_queue(bio->bi_bdev);

		if (likely(blk_queue_enter(q, __GFP_DIRECT_RECLAIM) == 0)) {
			struct bio_list lower, same;

			/* Create a fresh bio_list for all subordinate requests */
			bio_list_on_stack[1] = bio_list_on_stack[0];
			bio_list_init(&bio_list_on_stack[0]);

			ret = q->make_request_fn(q, bio);

			blk_queue_exit(q);
			/* sort new bios into those for a lower level
			 * and those for the same level
			 */
			bio_list_init(&lower);
			bio_list_init(&same);
			while ((bio = bio_list_pop(&bio_list_on_stack[0])) != NULL)
				if (q == bdev_get_queue(bio->bi_bdev))
					bio_list_add(&same, bio);
				else
					bio_list_add(&lower, bio);
			/* now assemble so we handle the lowest level first */
			bio_list_merge(&bio_list_on_stack[0], &lower);
			bio_list_merge(&bio_list_on_stack[0], &same);
			bio_list_merge(&bio_list_on_stack[0], &bio_list_on_stack[1]);
		} else {
			bio_io_error(bio);
		}
		bio = bio_list_pop(&bio_list_on_stack[0]);
	} while (bio);
	current->bio_list = NULL; /* deactivate */

out:
	return ret;
}
  1. 首先,定义了一个bio_list_on_stack数组,其中bio_list_on_stack[0]用于存储当前make_request_fn提交的biobio_list_on_stack[1]用于存储之前提交但尚未处理的bio
  2. 然后,初始化retBLK_QC_T_NONE,表示没有请求完成。
  3. 调用generic_make_request_checks函数对bio进行检查,如果检查失败,则跳转到out标签处。
  4. 判断当前是否已有活动的make_request_fn,通过检查current->bio_list是否为空。如果不为空,将当前的bio添加到current->bio_list[0]中,并跳转到out标签处。
  5. 进入一个循环,处理bio链表中的每个bio请求。
  6. 在循环中,首先获取bio->bi_bdev对应的请求队列q
  7. 判断是否可以进入请求队列,如果可以,则执行以下操作:
    • 创建一个新的bio_list用于存储下层请求。
    • 调用请求队列的make_request_fn函数处理当前bio,返回值赋给ret
    • 退出请求队列。
    • 将新的请求按照下层和同层进行分类,存放到lowersame两个bio_list中。
    • 合并lowersame以及之前存储的bio_list_on_stack[1]中的请求,并存放到bio_list_on_stack[0]中。
  8. 如果无法进入请求队列,说明发生了错误,调用bio_io_error函数处理当前bio的错误。
  9. 弹出bio_list_on_stack[0]中的下一个bio,继续处理下一个请求。
  10. 重复步骤7到步骤9,直到处理完所有的请求。
  11. current->bio_list设置为NULL,表示当前没有活动的make_request_fn
  12. 返回ret,表示请求的完成状态。

blk_get_request

blk_get_request函数根据请求队列的类型选择相应的方法来获取请求。

首先,函数检查请求队列的mq_ops字段是否存在。如果存在,表示使用了多队列(multi-queue)的块设备驱动模型,进入相应的代码分支。

在多队列模型下,函数调用blk_mq_alloc_request函数来分配一个请求。该函数会根据指定的请求队列q、读写方向rw和内存分配标志gfp_mask来创建一个新的请求结构,并返回该请求的指针。

如果请求队列的mq_ops字段不存在,表示使用的是旧的块设备驱动模型,进入另一个代码分支。

在旧的模型下,函数调用blk_old_get_request函数来获取请求。该函数会根据指定的请求队列q、读写方向rw和内存分配标志gfp_mask来获取一个已经存在的请求结构,并返回该请求的指针。

struct request *blk_get_request(struct request_queue *q, int rw, gfp_t gfp_mask)
{
	if (q->mq_ops)
		return blk_mq_alloc_request(q, rw, gfp_mask, false);
	else
		return blk_old_get_request(q, rw, gfp_mask);
}
blk_mq_alloc_request
struct request *blk_mq_alloc_request(struct request_queue *q, int rw, gfp_t gfp,
		bool reserved)
{
	struct blk_mq_ctx *ctx;
	struct blk_mq_hw_ctx *hctx;
	struct request *rq;
	struct blk_mq_alloc_data alloc_data;
	int ret;

	ret = blk_queue_enter(q, gfp);
	if (ret)
		return ERR_PTR(ret);

	ctx = blk_mq_get_ctx(q);
	hctx = q->mq_ops->map_queue(q, ctx->cpu);
	blk_mq_set_alloc_data(&alloc_data, q, gfp & ~__GFP_DIRECT_RECLAIM,
			reserved, ctx, hctx);

	rq = __blk_mq_alloc_request(&alloc_data, rw);
	if (!rq && (gfp & __GFP_DIRECT_RECLAIM)) {
		__blk_mq_run_hw_queue(hctx);
		blk_mq_put_ctx(ctx);

		ctx = blk_mq_get_ctx(q);
		hctx = q->mq_ops->map_queue(q, ctx->cpu);
		blk_mq_set_alloc_data(&alloc_data, q, gfp, reserved, ctx,
				hctx);
		rq =  __blk_mq_alloc_request(&alloc_data, rw);
		ctx = alloc_data.ctx;
	}
	blk_mq_put_ctx(ctx);
	if (!rq) {
		blk_queue_exit(q);
		return ERR_PTR(-EWOULDBLOCK);
	}
	return rq;
}

首先,函数调用blk_queue_enter函数进入请求队列的临界区。该函数会获取请求队列的锁,并根据指定的内存分配标志gfp执行相应的操作。

接下来,函数获取请求队列的上下文ctx和硬件队列上下文hctx。上下文用于跟踪请求的状态和执行信息。通过调用请求队列的map_queue方法,函数根据上下文的CPU绑定信息将请求映射到相应的硬件队列上下文。

然后,函数设置请求分配数据结构alloc_data,其中包含了请求队列、内存分配标志、是否保留等信息。

接着,函数调用__blk_mq_alloc_request函数进行请求的分配。该函数根据分配数据结构alloc_data和读写方向rw来创建一个新的请求结构,并返回该请求的指针。如果分配失败并且内存分配标志gfp中包含__GFP_DIRECT_RECLAIM标志,函数会尝试运行硬件队列以释放一些资源,并重新获取上下文和硬件队列,然后再次尝试分配请求。

在获取到请求后,函数通过调用blk_mq_put_ctx函数释放上下文。

最后,函数检查请求是否为空。如果为空,表示请求分配失败,函数调用blk_queue_exit函数退出请求队列的临界区,并返回一个错误指针ERR_PTR(-EWOULDBLOCK)

blk_old_get_request
static struct request *blk_old_get_request(struct request_queue *q, int rw,
		gfp_t gfp_mask)
{
	struct request *rq;

	BUG_ON(rw != READ && rw != WRITE);

	/* create ioc upfront */
	create_io_context(gfp_mask, q->node);

	spin_lock_irq(q->queue_lock);
	rq = get_request(q, rw, NULL, gfp_mask);
	if (IS_ERR(rq))
		spin_unlock_irq(q->queue_lock);
	/* q->queue_lock is unlocked at this point */

	return rq;
}

首先,函数调用BUG_ON宏来断言读写方向rw必须是READWRITE。接下来,函数调用create_io_context函数来创建 I/O 上下文。I/O 上下文用于跟踪请求的相关信息。该函数会根据指定的内存分配标志gfp_mask和节点信息q->node来创建一个新的 I/O 上下文。

然后,函数获取请求队列的队列锁queue_lock,并进入自旋锁保护的临界区。在临界区内,函数调用get_request函数来获取请求。该函数会根据指定的请求队列q、读写方向rw、请求关联的块设备NULL和内存分配标志gfp_mask来获取一个已经存在的请求结构,并返回该请求的指针。如果获取请求失败,函数会调用spin_unlock_irq函数解锁队列锁。

IO调度算法简介

Noop算法

最简单的 I/O调度算法。该算法仅适当合并用户请求,并不排序请求:新的请求通常被插在调度队列的开头或末尾,下一个要处理的请求总是队列中的第一个请求。这种算法是为不需要寻道的块设备设计的,如SSD。

CFQ算法

"CFQ(完全公平队列)”算法的主要目标是在触发I/O请求的所有进程中确保磁盘I/O带宽的公平分配。为了达到这个目标,算法使用许多个排序队列——缺省为64。它们存放了不同进程发出的请求。当算法处理一个请求时,内核调用一个散列函数将当前进程的线程组标识符(PID);然后,算法将一个新的请求插人该队列的末尾。因此,同一个进程发出的请求通常被插入相同的队列中。

算法本质上采用轮询方式扫描I/O输入队列,选择第一个非空队列,依次调度不同队列中特定个数(公平)的请求,然后将这些请求移动到调度队列的末尾。

最后期限算法

除了调度队列外,“最后期限”算法还使用了四个队列。其中的两个排序队列分别包含读请求和写请求,其中的请求是根据起始扇区号排序的。另外两个最后期限队列包含相同的读和写请求,但这是根据它们的“最后期限”排序的。引人这些队列是为了避免请求饿死,由于电梯策略(曾经的调度算法)优先处理与上一个所处理的请求最近的请求,因而就会对某个请求忽略很长一段时间,这时就会发生这种情况。请求的最后期限本质上就是一个超时定时器,当请求被传给电梯算法时开始计时。缺省情况下,读请求的超时时间是500ms,写请求的超时时间是5s——读请求优先于写请求,因为读请求通常阻塞发出请求的进程。最后期限保证了调度程序照顾等待很长一段时间的那个请求,即使它位于排序队列的末尾。

当算法要补充调度队列时,首先确定下一个请求的数据方向。如果同时要调度读和写两个请求,算法会选择“读”方向,除非该“写”方向已经被放弃很多次了(为了避免写请求饿死)。

接下来,算法检查与被选择方向相关的最后期限队列:如果队列中的第一个请求的最后期限已用完,那么算法将该请求移到调度队列的末尾。同时,它也会移动该过期的请求后面的一组来自排序队列的相同扇区号的请求。如果将要移动的请求在磁盘上物理相邻,那么这一批队列的长度会很长,否则就很短。

最后,如果没有请求超时,算法对来自于排序队列的最后一个请求连带之后的一组相同扇区的请求进行调度。当指针到达排序队列的末尾时,搜索又从头开始(“单方向算法”)。

预期算法

“预期”算法是Linux提供的最复杂的一种1/O调度算法。基本上,它是“最后期限”算法的一个演变,借用了“最后期限”算法的基本机制:两个最后期限队列和两个排序队列;I/O调度程序在读和写请求之间交互扫描排序队列,不过更倾向于读请求。扫描基本上是连续的,除非有某个请求超时。读请求的缺省超时时间是125ms,写请求的缺省超时时间是250ms。但是,该算法还遵循一些附加的启发式准则:

有些情况下,算法可能在排序队列当前位置之后选择一个请求,从而强制磁头从后搜索。这种情况通常发生在这个请求之后的搜索距离小于在排序队列当前位置之后对该请求搜索距离的一半时。

算法统计系统中每个进程触发的I/O操作的种类。当刚刚调度了由某个进程p发出的一个读请求之后,算法马上检查排序队列中的下一个请求是否来自同一个进程p。如果是,立即调度下一个请求。否则,查看关于该进程p的统计信息:如果确定进程p可能很快发出另一个读请求,那么就延迟一小段时间(缺省大约为7ms)。因此,算法预测进程p发出的读请求与刚被调度的请求在磁盘上可能是“近邻”。

关于调度算法 详细的介绍可以参考:https://zhuanlan.zhihu.com/p/548619385

本文参考

https://blog.csdn.net/weixin_43780260/article/details/88993543

《Linux内核设计与实现》

  • 21
    点赞
  • 15
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
这是书的光盘。共分为两个部分,这是第一部分。 本书由浅入深、循序渐进地介绍了Windows驱动程序的开发方法与调试技巧。本书共分23章,内容涵盖了 Windows操作系统的基本原理、NT驱动程序与WDM驱动程序的构造、驱动程序的同步异步处理方法、 动程序即插即用功能、驱动程序的各种调试技巧等。同时,还针对流行的PCI驱动程序、USB驱动程序 、虚拟串口驱动程序、摄像头驱动程序、SDIO驱动程序进行了详细的介绍,本书最大的特色在于每一节 的例子都是经过精挑细选的,具有很强的针对性。力求让读者通过亲自动手实验,掌握各类Windows驱动 程序的开发技巧,学习尽可能多的Windows底知识。   本书适用于、高级系统程序员,同时也可用做高校计算机专业操作系统实验课的补充教材。 原创经典,威盛一线工程师倾力打造。深入驱动核心,剖析操作系统底运行机制,通过实例引导,快 速学习编译、安装、调试的方法。   从Windows最基本的两类驱动程序的编译、安装、调试入手讲解,非常容易上手,用实例详细讲解 PCI、USB、虚拟串口、虚拟摄像头、SDIO驱动程序的开发,归纳了多种调试驱动程序的高级技巧,如 用WinDBG和VMWARE软件对驱动进行源码级调试,深入Windows操作系统的底和内核,透析Windows驱动 开发的本质。 本书是作者结合教学和科研实践经验编写而成的,不仅详细介绍了Windows内核原理,而且介绍了编程技 巧和应用实例,兼顾了在校研究生和工程技术人员的实际需求,对教学、生产和科研有现实的指导意义 ,是一本值得推荐的专著。              ——国工程院院士   院士推荐   目前,电子系统设计广泛采用通用操作系统,达到降低系统的设计难度和缩短研发周期。实现操作 系统与硬件快速信息交换是电子系统设计的关键。   通用操作系统硬件驱动程序的开发,编写者不仅需要精通硬件设备、计算机总线,而且需要Windows 操作系统知识以及调试技巧。学习和掌握Windows硬件驱动程序的开发是电子系统设计人员必备的能力。   本书是作者结合教学和科研实践经验编写而成的,不仅详细介绍了Windows内核原理,并且介绍了编 程技巧和应用实例,兼顾了在校研究生和工程技术人员的实际需求,对教学、生产和科研有现实的指导 意义,是一本值得推荐的专著。 第1篇 入门篇 第1章 从两个最简单的驱动谈起 本章向读者呈现两个最简单的Windows驱动程序,一个是NT式的驱动程序,另一个是WDM式的驱动程序。 这两个驱动程序没有操作具体的硬件设备,只是在系统里创建了虚拟设备。在随后的章节,它们会作 为基本驱动程序框架,被本书其他章节的驱动程序开发所复用。笔者将带领读者编写代码、编译、安装 和调试程序。   1.1 DDK的安装   1.2 第一个驱动程序HelloDDK的代码分析    1.2.1 HelloDDK的头文件    1.2.2 HelloDDK的入口函数    1.2.3 创建设备例程    1.2.4 卸载驱动例程    1.2.5 默认派遣例程   1.3 HelloDDK的编译和安装    1.3.1 用DDK环境编译HelloDDK    1.3.2 用VC集成开发环境编译HelloDDK    1.3.3 HelloDDK的安装   1.4 第二个驱动程序HelloWDM的代码分析    1.4.1 HelloWDM的头文件    1.4.2 HelloWDM的入口函数    1.4.3 HelloWDM的AddDevice例程    1.4.4 HelloWDM处理PNP的回调函数    1.4.5 HelloWDM对PNP的默认处理    1.4.6 HelloWDM对IRP_MN_REMOVE_DEVICE的处理    1.4.7 HelloWDM对其他IRP的回调函数    1.4.8 HelloWDM的卸载例程   1.5 HelloWDM的编译和安装    1.5.1 用DDK编译环境编译HelloWDM    1.5.2 HelloWDM的编译过程    1.5.3 安装HelloWDM   1.6 小结  第2章 Windows操作驱动的基本概念  驱动程序被操作系统加载在内核模式下,它与Windows操作系统内核的其他组件进行密切交互。本章主 要介绍Windows操作系统内核的基本概念,同时还介绍应用程序和驱动程序之间的通信方法。   2.1 Windows操作系统概述    2.1.1 Windows家族    2.1.2 Windows特性    2.1.3 用户模式和内核模式    
这是书的光盘。共分为两部分,这是第二部分。 本书由浅入深、循序渐进地介绍了Windows驱动程序的开发方法与调试技巧。本书共分23章,内容涵盖了Windows操作系统的基本原理、NT驱动程序与WDM驱动程序的构造、驱动程序的同步异步处理方法、驱动程序即插即用功能、驱动程序的各种调试技巧等。同时,还针对流行的PCI驱动程序、USB驱动程序、虚拟串口驱动程序、摄像头驱动程序、SDIO驱动程序进行了详细的介绍,本书最大的特色在于每一节的例子都是经过精挑细选的,具有很强的针对性。力求让读者通过亲自动手实验,掌握各类Windows驱动程序的开发技巧,学习尽可能多的Windows底知识。   本书适用于、高级系统程序员,同时也可用做高校计算机专业操作系统实验课的补充教材。 原创经典,威盛一线工程师倾力打造。深入驱动核心,剖析操作系统底运行机制,通过实例引导,快速学习编译、安装、调试的方法。   从Windows最基本的两类驱动程序的编译、安装、调试入手讲解,非常容易上手,用实例详细讲解PCI、USB、虚拟串口、虚拟摄像头、SDIO驱动程序的开发,归纳了多种调试驱动程序的高级技巧,如用WinDBG和VMWARE软件对驱动进行源码级调试,深入Windows操作系统的底和内核,透析Windows驱动开发的本质。 本书是作者结合教学和科研实践经验编写而成的,不仅详细介绍了Windows内核原理,而且介绍了编程技巧和应用实例,兼顾了在校研究生和工程技术人员的实际需求,对教学、生产和科研有现实的指导意义,是一本值得推荐的专著。              ——国工程院院士   院士推荐   目前,电子系统设计广泛采用通用操作系统,达到降低系统的设计难度和缩短研发周期。实现操作系统与硬件快速信息交换是电子系统设计的关键。   通用操作系统硬件驱动程序的开发,编写者不仅需要精通硬件设备、计算机总线,而且需要Windows操作系统知识以及调试技巧。学习和掌握Windows硬件驱动程序的开发是电子系统设计人员必备的能力。   本书是作者结合教学和科研实践经验编写而成的,不仅详细介绍了Windows内核原理,并且介绍了编程技巧和应用实例,兼顾了在校研究生和工程技术人员的实际需求,对教学、生产和科研有现实的指导意义,是一本值得推荐的专著。 第1篇 入门篇 第1章 从两个最简单的驱动谈起 本章向读者呈现两个最简单的Windows驱动程序,一个是NT式的驱动程序,另一个是WDM式的驱动程序。这两个驱动程序没有操作具体的硬件设备,只是在系统里创建了虚拟设备。在随后的章节,它们会作为基本驱动程序框架,被本书其他章节的驱动程序开发所复用。笔者将带领读者编写代码、编译、安装和调试程序。   1.1 DDK的安装   1.2 第一个驱动程序HelloDDK的代码分析    1.2.1 HelloDDK的头文件    1.2.2 HelloDDK的入口函数    1.2.3 创建设备例程    1.2.4 卸载驱动例程    1.2.5 默认派遣例程   1.3 HelloDDK的编译和安装    1.3.1 用DDK环境编译HelloDDK    1.3.2 用VC集成开发环境编译HelloDDK    1.3.3 HelloDDK的安装   1.4 第二个驱动程序HelloWDM的代码分析    1.4.1 HelloWDM的头文件    1.4.2 HelloWDM的入口函数    1.4.3 HelloWDM的AddDevice例程    1.4.4 HelloWDM处理PNP的回调函数    1.4.5 HelloWDM对PNP的默认处理    1.4.6 HelloWDM对IRP_MN_REMOVE_DEVICE的处理    1.4.7 HelloWDM对其他IRP的回调函数    1.4.8 HelloWDM的卸载例程   1.5 HelloWDM的编译和安装    1.5.1 用DDK编译环境编译HelloWDM    1.5.2 HelloWDM的编译过程    1.5.3 安装HelloWDM   1.6 小结  第2章 Windows操作驱动的基本概念  驱动程序被操作系统加载在内核模式下,它与Windows操作系统内核的其他组件进行密切交互。本章主要介绍Windows操作系统内核的基本概念,同时还介绍应用程序和驱动程序之间的通信方法。   2.1 Windows操作系统概述    2.1.1 Windows家族    2.1.2 Windows特性    2.1.3 用户模式和内核模式    2.1.4 操作系统与应用程序   2.2 操作系统分    2.2.1 Windows操作系统总体架构    2.2.2 应用程序与Win32子系统    2.2.3 其他环境子系统    2.2.4 Native API    2.2.5 系统服务    2.2.6 执行程序组件    2.2.7 驱动程序    2.2.8 内核    2.2.9 硬件抽象    2.2.10 Windows与微内核   2.3 从应用程序到驱动程序   2.4 小结  第3章 Windows驱动编译环境配置、安装及调试  本章将带领读者一步步对驱动程序进行编译、安装和简单的调试工作。这些步骤虽然简单,但往往困惑着初次接触驱动程序的开发者。  3.1 用C语言还是用C++语言    3.1.1 调用约定    3.1.2 函数的导出名    3.1.3 运行时函数的调用   3.2 用DDK编译环境编译驱动程序    3.2.1 编译版本    3.2.2 nmake工具    3.2.3 build工具    3.2.4 makefile文件    3.2.5 dirs文件    3.2.6 sources文件    3.2.7 makefile.inc文件    3.2.8 build工具的环境变量    3.2.9 build工具的命令行参数   3.3 用VC编译驱动程序    3.3.1 建立驱动程序工程    3.3.2 修改编译选项    3.3.3 修改链接选项    3.3.4 其他修改    3.3.5 VC编译小结   3.4 查看调试信息    3.4.1 打印调试语句    3.4.2 查看调试语句   3.5 手动加载NT式驱动   3.6 编写程序加载NT式驱动    3.6.1 SCM组件和Windows服务    3.6.2 加载NT驱动的代码    3.6.3 卸载NT驱动的代码    3.6.4 实验   3.7 WDM式驱动的加载    3.7.1 WDM的手动安装    3.7.2 简单的INF文件剖析   3.8 WDM设备安装在注册表的变化    3.8.1 硬件子键    3.8.2 类子键    3.8.3 服务子键   3.9 小结  第4章 驱动程序的基本结构  本章首先对Windows驱动程序的两个重要数据结构进行介绍,分别是驱动对象和设备对象数据结构。另外还要介绍NT驱动程序和WDM驱动程序的入口函数、卸载例程、各种IRP派遣上函数等。   4.1 Windows驱动程序重要的数据结构    4.1.1 驱动对象(DRIVER_OBJECT)    4.1.2 设备对象(DEVICE_OBJECT)    4.1.3 设备扩展   4.2 NT式驱动的基本结构    4.2.1 驱动加载过程与驱动入口函数(DriverEntry)    4.2.2 创建设备对象    4.2.3 DriverUnload例程    4.2.4 用WinObj观察驱动对象和设备对象    4.2.5 用DeviceTree观察驱动对象和设备对象   4.3 WDM式驱动的基本结构    4.3.1 物理设备对象与功能设备对象    4.3.2 WDM驱动的入口程序    4.3.3 WDM驱动的AddDevice例程    4.3.4 DriverUnload例程    4.3.5 对IRP_MN_REMOVE_DEVICE IRP的处理    4.3.6 用Device Tree查看WDM设备对象栈   4.4 设备的次结构    4.4.1 驱动程序的垂直次结构    4.4.2 驱动程序的水平次结构    4.4.3 驱动程序的复杂次结构   4.5 实验    4.5.1 改写HelloDDK查看驱动结构    4.5.2 改写HelloWDM查看驱动结构   4.6 小结  第5章 Windows内存管理   本章围绕着驱动程序的内存操作进行了介绍。在驱动程序开发,首先要注意分页内存和非分页内存的使用。同时,还需要区分物理内存地址和虚拟内存地址这两个概念。   5.1 内存管理概念    5.1.1 物理内存概念(Physical Memory Address)    5.1.2 虚拟内存地址概念(Virtual Memory Address)    5.1.3 用户模式地址和内核模式地址    5.1.4 Windows驱动程序和进程的关系    5.1.5 分页与非分页内存    5.1.6 分配内核内存   5.2 在驱动使用链表    5.2.1 链表结构    5.2.2 链表初始化    5.2.3 从首部插入链表    5.2.4 从尾部插入链表    5.2.5 从链表删除    5.2.6 实验   5.3 Lookaside结构    5.3.1 频繁申请内存的弊端    5.3.2 使用Lookaside    5.3.3 实验   5.4 运行时函数    5.4.1 内存间复制(非重叠)    5.4.2 内存间复制(可重叠)    5.4.3 填充内存    5.4.4 内存比较    5.4.5 关于运行时函数使用的注意事项    5.4.6 实验   5.5 使用C++特性分配内存   5.6 其他    5.6.1 数据类型    5.6.2 返回状态值    5.6.3 检查内存可用性    5.6.4 结构化异常处理(try-except块)    5.6.5 结构化异常处理(try-finally块)    5.6.6 使用宏需要注意的地方    5.6.7 断言   5.7 小结 第6章 Windows内核函数  本章介绍了Windows内核模式下的一些常用内核函数,这些函数在驱动程序的开发将会经常用到。   6.1 内核模式下的字符串操作    6.1.1 ASCII字符串和宽字符串    6.1.2 ANSI_STRING字符串与UNICODE_STRING字符串    6.1.3 字符初始化与销毁    6.1.4 字符串复制    6.1.5 字符串比较    6.1.6 字符串转化成大写    6.1.7 字符串与整型数字相互转换    6.1.8 ANSI_STRING字符串与UNICODE_STRING字符串相互转换   6.2 内核模式下的文件操作    6.2.1 文件的创建    6.2.2 文件的打开    6.2.3 获取或修改文件属性    6.2.4 文件的写操作    6.2.5 文件的读操作   6.3 内核模式下的注册表操作    6.3.1 创建关闭注册表    6.3.2 打开注册表    6.3.3 添加、修改注册表键值    6.3.4 查询注册表    6.3.5 枚举子项    6.3.6 枚举子键    6.3.7 删除子项    6.3.8 其他   6.4 小结  第7章 派遣函数   本章重点介绍了驱动程序的处理IRP请求的派遣函数。所有对设备的操作最终将转化为IRP请求,这些IRP请求会被传送到派遣函数处理。   7.1 IRP与派遣函数    7.1.1 IRP    7.1.2 IRP类型    7.1.3 对派遣函数的简单处理    7.1.4 通过设备链接打开设备    7.1.5 编写一个更通用的派遣函数    7.1.6 跟踪IRP的利器IRPTrace   7.2 缓冲区方式读写操作    7.2.1 缓冲区设备    7.2.2 缓冲区设备读写    7.2.3 缓冲区设备模拟文件读写   7.3 直接方式读写操作    7.3.1 直接读取设备    7.3.2 直接读取设备的读写   7.4 其他方式读写操作    7.4.1 其他方式设备    7.4.2 其他方式读写   7.5 IO设备控制操作    7.5.1 DeviceIoControl与驱动交互    7.5.2 缓冲内存模式IOCTL    7.5.3 直接内存模式IOCTL    7.5.4 其他内存模式IOCTL   7.6 小结 第2篇 进阶篇  第8章 驱动程序的同步处理  本章介绍了驱动程序常用的同步处理办法,并且将内核模式下的同步处理方法和用户模式下的同步处理方法做了比较。另外,本章还介绍了断请求级、自旋锁等同步处理机制。   8.1 基本概念    8.1.1 问题的引出    8.1.2 同步与异步   8.2 断请求级    8.2.1 断请求(IRQ)与可编程断控制器(PIC)    8.2.2 高级可编程控制器(APIC)    8.2.3 断请求级(IRQL)    8.2.4 线程调度与线程优先级    8.2.5 IRQL的变化    8.2.6 IRQL与内存分页    8.2.7 控制IRQL提升与降低   8.3 自旋锁    8.3.1 原理    8.3.2 使用方法   8.4 用户模式下的同步对象    8.4.1 用户模式的等待    8.4.2 用户模式开启多线程    8.4.3 用户模式的事件    8.4.4 用户模式的信号灯    8.4.5 用户模式的互斥体    8.4.6 等待线程完成   8.5 内核模式下的同步对象    8.5.1 内核模式下的等待    8.5.2 内核模式下开启多线程    8.5.3 内核模式下的事件对象    8.5.4 驱动程序与应用程序交互事件对象    8.5.5 驱动程序与驱动程序交互事件对象    8.5.6 内核模式下的信号灯    8.5.7 内核模式下的互斥体    8.5.8 快速互斥体   8.6 其他同步方法    8.6.1 使用自旋锁进行同步    8.6.2 使用互锁操作进行同步    8.7 小结  第9章 IRP的同步  本章详细地介绍了IRP的同步处理方法和异步处理方法。另外,本章还介绍了StartIO例程、断服务例程、DPC服务例程。   9.1 应用程序对设备的同步异步操作    9.1.1 同步操作与异步操作原理    9.1.2 同步操作设备    9.1.3 异步操作设备(方式一)    9.1.4 异步操作设备(方式二)   9.2 IRP的同步完成与异步完成    9.2.1 IRP的同步完成    9.2.2 IRP的异步完成    9.2.3 取消IRP   9.3 StartIO例程    9.3.1 并行执行与串行执行    9.3.2 StartIO例程    9.3.3 示例   9.4 自定义的StartIO    9.4.1 多个串行化队列    9.4.2 示例   9.5 断服务例程    9.5.1 断操作的必要性    9.5.2 断优先级    9.5.3 断服务例程(ISR)   9.6 DPC例程    9.6.1 延迟过程调用例程(DPC)    9.6.2 DpcForISR   9.7 小结  第10章 定时器  本章总结了在内核模式下的四种等待方法,读者可以利用这些方法灵活地用在自己的驱动程序。最后本章还介绍了如何对IRP的超时情况进行处理。   10.1 定时器实现方式一    10.1.1 I/O定时器    10.1.2 示例代码   10.2 定时器实现方式二    10.2.1 DPC定时器    10.2.2 示例代码   10.3 等待    10.3.1 第一种方法:使用KeWaitForSingleObject    10.3.2 第二种方法:使用KeDelayExecutionThread    10.3.3 第种方法:使用KeStallExecutionProcessor    10.3.4 第四种方法:使用定时器   10.4 时间相关的其他内核函数    10.4.1 时间相关函数    10.4.2 示例代码   10.5 IRP的超时处理    10.5.1 原理    10.5.2 示例代码   10.6 小结  第11章 驱动程序调用驱动程序 本章主要介绍了如何在驱动程序调用其他驱动程序。比较简单的方法是将被调用的驱动程序以文件的方式操作。比较高级的方法是构造各种IRP,并将这些IRP传送到被调用的驱动程序。   11.1 以文件句柄形式调用其他驱动程序    11.1.1 准备一个标准驱动    11.1.2 获得设备句柄    11.1.3 同步调用    11.1.4 异步调用方法一    11.1.5 异步调用方法二    11.1.6 通过符号链接打开设备   11.2 通过设备指针调用其他驱动程序    11.2.1 用IoGetDeviceObjectPointer获得设备指针    11.2.2 创建IRP传递给驱动的派遣函数    11.2.3 用IoBuildSynchronousFsdRequest创建IRP    11.2.4 用IoBuildAsynchronousFsdRequest创建IRP    11.2.5 用IoAllocateIrp创建IRP   11.3 其他方法获得设备指针    11.3.1 用ObReferenceObjectByName获得设备指针    11.3.2 剖析IoGetDeviceObjectPointer    11.4 小结  第12章 分驱动程序   本章主要介绍了分驱动的概念。分驱动可以将功能复杂的驱动程序分解为多个功能简单的驱动程序。多个分驱动程序形成一个设备堆栈,IRP请求首先发送到设备堆栈的顶,然后依次穿越每的设备堆栈,最终完成IRP请求。   12.1 分驱动程序概念    12.1.1 分驱动程序的概念    12.1.2 设备堆栈与挂载    12.1.3 I/O堆栈    12.1.4 向下转发IRP    12.1.5 挂载设备对象示例    12.1.6 转发IRP示例    12.1.7 分析    12.1.8 遍历设备栈   12.2 完成例程    12.2.1 完成例程概念    12.2.2 传播Pending位    12.2.3 完成例程返回STATUS_SUCCESS    12.2.4 完成例程返回STATUS_MORE_PROCESSING_REQUIRED   12.3 将IRP分解成多个IRP    12.3.1 原理    12.3.2 准备底驱动    12.3.3 读派遣函数    12.3.4 完成例程    12.3.5 分析   12.4 WDM驱动程序架构    12.4.1 WDM与分驱动程序    12.4.2 WDM的加载方式    12.4.3 功能设备对象    12.4.4 物理设备对象    12.4.5 物理设备对象与即插即用   12.5 小结  第13章 让设备实现即插即用  本章首先介绍即插即用的概念和驱动程序支持即插即用功能的必要性。另外,本章还介绍如何利用WDM驱动程序开发框架设计支持即插即用功能的驱动程序。   13.1 即插即用概念    13.1.1 历史原因    13.1.2 即插即用的目标    13.1.3 Windows即插即用相关组件    13.1.4 遗留驱动程序   13.2 即插即用IRP    13.2.1 即插即用IRP的功能代码    13.2.2 处理即插即用IRP的派遣函数   13.3 通过设备接口寻找设备    13.3.1 设备接口    13.3.2 WDM驱动设置接口    13.3.3 应用程序寻找接口    13.3.4 查看接口设备   13.4 启动和停止设备    13.4.1 为一个实际硬件安装HelloWDM    13.4.2 启动设备    13.4.3 转发并等待    13.4.4 获得设备相关资源    13.4.5 枚举设备资源    13.4.6 停止设备   13.5 即插即用的状态转换    13.5.1 状态转换图    13.5.2 IRP_MN_QUERY_STOP_DEVICE    13.5.3 IRP_MN_QUERY_REMOVE_DEVICE   13.6 其他即插即用IRP    13.6.1 IRP_MN_FILTER_RESOURCE_REQUIREMENTS    13.6.2 IRP_MN_QUERY_CAPABILITIES   13.7 小结  第14章 电源管理  本章主要介绍了如何在WDM驱动程序进行电源处理。电源处理主要是处理好电源状态和设备状态。   14.1 WDM电源管理模型    14.1.1 概述    14.1.2 热插拔    14.1.3 电源状态    14.1.4 设备状态    14.1.5 状态转换   14.2 处理IRP_MJ_POWER   14.3 处理IRP_MN_QUERY_CAPABILITIES    14.3.1 DEVICE_CAPABILITIES    14.3.2 一个试验   14.4 小结 第3篇 实用篇  第15章 I/O端口操作  本章总结了多种I/O端口操作的方法。这些方法本质上是一样的,都是将端口输入输出的汇编指令运行在内核模式。   15.1 概述    15.1.1 从DOS说起    15.1.2 汇编实现    15.1.3 DDK实现   15.2 工具软件WinIO    15.2.1 WinIO简介    15.2.2 使用方法   15.3 端口操作实现方法一    15.3.1 驱动端程序    15.3.2 应用程序端程序   15.4 端口操作实现方法二    15.4.1 驱动端程序    15.4.2 应用程序端程序   15.5 端口操作实现方法    15.5.1 驱动端程序    15.5.2 应用程序端程序   15.6 端口操作实现方法四    15.6.1 原理    15.6.2 驱动端程序    15.6.3 应用程序端程序   15.7 驱动PC喇叭    15.7.1 可编程定时器    15.7.2 PC喇叭    15.7.3 操作代码   15.8 操作并口设备    15.8.1 并口设备简介    15.8.2 并口寄存器    15.8.3 并口设备操作   15.9 小结 第16章 PCI设备驱动 本章主要介绍PCI设备的驱动开发。首先介绍了PCI总线协议。作为驱动程序员,开发PCI驱动程序首先要了解PCI配置空间。根据读取PCI配置空间,可以得到PCI设备的所有资源。另外,本章还总结了四种获取PCI配置空间的方法。   16.1 PCI总线协议    16.1.1 PCI总线简介    16.1.2 PCI配置空间简介   16.2 访问PCI配置空间方法一    16.2.1 两个重要寄存器    16.2.2 示例   16.3 访问PCI配置空间方法二    16.3.1 DDK函数读取配置空间    16.3.2 示例   16.4 访问PCI配置空间方法    16.4.1 通过即插即用IRP获得PCI配置空间    16.4.2 示例   16.5 访问PCI配置空间方法四    16.5.1 创建IRP_MN_READ_CONFIG    16.5.2 示例   16.6 PCI设备驱动开发示例    16.6.1 开发步骤    16.6.2 断操作    16.6.3 操作设备物理内存    16.6.4 示例   16.7 小结 第17章 USB设备驱动  本章首先介绍了USB总线协议的基本框架,其包括USB总线的拓扑结构,USB通信的流程,还有USB的四种传输模式。另外,本章介绍了如何编写USB总线设备的驱动程序。   17.1 USB总线协议    17.1.1 USB设备简介    17.1.2 USB连接拓扑结构    17.1.3 USB通信的流程    17.1.4 USB四种传输模式   17.2 Windows下的USB驱动    17.2.1 观察USB设备的工具    17.2.2 USB设备请求    17.2.3 设备描述符    17.2.4 配置描述符    17.2.5 接口描述符    17.2.6 端点描述符   17.3 USB驱动开发实例    17.3.1 功能驱动与物理总线驱动    17.3.2 构造USB请求包    17.3.3 发送USB请求包    17.3.4 USB设备初始化    17.3.5 USB设备的插拔    17.3.6 USB设备的读写   17.4 小结  第18章 SDIO设备驱动 本章首先介绍了SDIO协议,讲述了SD内存卡和SDIO卡的兼容问题。然后介绍了SDIO协议的发送命令、回应命令、传送数据等相关协议。随后,本章又介绍了Windows,DDK提供的对SDIO卡设备的支持。然后介绍了如何利用总线驱动,使SDIO设备初始化,接收断,发送和接收数据等操作。   18.1 SDIO协议    18.1.1 SD内存卡概念    18.1.2 SDIO卡概念    18.1.3 SDIO总线    18.1.4 SDIO令牌    18.1.5 SDIO令牌格式    18.1.6 SDIO的寄存器    18.1.7 CMD52命令    18.1.8 CMD53命令   18.2 SDIO驱动开发框架    18.2.1 SDIO Host Controller驱动    18.2.2 SDIO卡的初始化    18.2.3 断回调函数    18.2.4 获得和设置属性    18.2.5 CMD52    18.2.6 CMD53   18.3 SDIO开发实例   18.4 小结  第19章 虚拟串口设备驱动  本章介绍了串口开发的框架模型,在串口的AddDevice例程需要暴露出一个串口的符号连接,另外在相应的注册表需要进行设置。在串口与应用程序的通信,主要是一组DDK定义的IO控制码,这些IO控制码负责由应用程序向驱动发出请求。   19.1 串口简介   19.2 DDK串口开发框架    19.2.1 串口驱动的入口函数    19.2.2 应用程序与串口驱动的通信    19.2.3 写的实现    19.2.4 读的实现   19.3 小结  第20章 摄像头设备驱动程序  本章主要介绍了微软提供的摄像头驱动框架。在该框架,微软提供了类驱动和小驱动的概念。对于驱动程序员的任务就是编写小驱动程序。   20.1 WDM摄像头驱动框架    20.1.1 类驱动与小驱动    20.1.2 摄像头的类驱动与小驱动    20.1.3 编写小驱动程序    20.1.4 小驱动的流控制   20.2 虚拟摄像头开发实例    20.2.1 编译和安装    20.2.2 虚拟摄像头入口函数    20.2.3 对STREAM_REQUEST_BLOCK的处理函数    20.2.4 打开视频流    20.2.5 对视频流的读取   20.3 小结 第4篇 提高篇  第21章 再论IRP  本章将相关IRP的操作做了进一步的总结。首先是转发IRP,归纳了几种不同的方式。其次总结了创建IRP的几种不同方法。创建IRP总的来说分为创建同步IRP和创建异步IRP。对于创建同步IRP,操作比较简单,I/O管理器会负责回收IRP的相关内存,但是使用不够灵活。对于创建异步IRP,操作比较复杂,程序员需要自己负责对IRP及相关内存回收,但使用十分灵活。   21.1 转发IRP    21.1.1 直接转发    21.1.2 转发并且等待    21.1.3 转发并且设置完成例程    21.1.4 暂时挂起当前IRP    21.1.5 不转发IRP   21.2 创建IRP    21.2.1 IoBuildDeviceIoControlRequest    21.2.2 创建有超时的IOCTL IRP    21.2.3 用IoBuildSynchronousFsdRequest创建IRP    21.2.4 关于IoBuildAsynchronousFsdRequest    21.2.5 关于IoAllocateIrp   21.3 小结 第22章 过滤驱动程序  本章主要介绍WDM和NT式过滤驱动程序开发。过滤驱动程序开发十分灵活,可以修改已有驱动程序的功能,也可以对数据进行过滤加密。另外,利用过滤驱动程序还能编写出很多具有相当功能强大的程序来。  22.1 文件过滤驱动程序   22.1.1 过滤驱动程序概念   22.1.2 过滤驱动程序的入口函数   22.1.3 U盘过滤驱动程序   22.1.4 过滤驱动程序加载方法一   22.1.5 过滤驱动程序加载方法二   22.1.6 过滤驱动程序的AddDevice例程   22.1.7 磁盘命令过滤  22.2 NT式过滤驱动程序   22.2.1 NT式过滤驱动程序   22.2.2 NT过滤驱动的入口函数   22.2.3 挂载过滤驱动   22.2.4 过滤键盘读操作  22.3 小结  第23章 高级调试技巧  本章将介绍一些Windows开发驱动的高级调试技巧。有一些高级驱动程序调试技巧,可以帮助程序员找出驱动程序的Bug。另外,利用一些第方工具软件,也可以帮助程序员找到驱动程序的漏洞,从而提高开发效率。  23.1 一般性调试技巧   23.1.1 打印调试信息   23.1.2 存储dump信息   23.1.3 使用WinDbg调试工具  23.2 高级内核调试技巧   23.2.1 安装VMWare   23.2.2 在虚拟机上加载驱动程序   23.2.3 VMWare和WinDbg联合调试驱动程序  23.3 用IRPTrace调试驱动程序  23.4 小结
### 回答1: Windows驱动开发技术是Windows系统非常重要的一个领域。在这个领域,我们通常需要开发系统级的驱动程序,来帮助操作系统更好地管理硬件资源。同时,驱动程序也扮演着连接应用程序和硬件之间的桥梁的重要角色。 对于Windows驱动开发技术,重要的一点就是要学会如何使用DDK和WDK,这两个工具包都提供了丰富的开发工具和API,可以帮助开发者轻松地开发出高效稳定的驱动程序。 在开发驱动程序时,我们通常需要熟悉Windows操作系统的内核机制,掌握诸如内存管理、进程调度断处理等知识。此外,还需要了解驱动程序的核心代码,如何通过操作系统提供的API访问硬件资源,如何编写具有高效性和安全性的驱动程序等等。 为了帮助开发者更好地学习和开发Windows驱动程序,许多技术专家制作了很多详尽的教程、视频课程或PDF书籍,其高清PDF完整源码则是其之一。这个项目提供了大量的示例代码和实践经验,让学习者在实践更好地掌握相关知识和技能。 在使用高清PDF完整源码进行学习时,我们需要先了解Windows驱动开发的基本概念和知识,然后逐步深入学习各种驱动开发技术,如如何管理和处理驱动程序信息、如何处理I/O请求、如何与系统内核进行交互、如何实现设备控制等等。通过学习这些知识,我们可以更好地掌握Windows驱动开发技术,进而开发出高效稳定的驱动程序。 ### 回答2: Windows驱动开发是指开发专门运行在Windows操作系统内核驱动程序。这些驱动程序负责管理硬件设备并与操作系统进行通信,以确保硬件设备能够与操作系统良好地协作工作。Windows驱动开发技术的详解涵盖了各种开发需求,例如创建安装程序、编写设备驱动程序、调试驱动程序、使用WinDbg等调试工具进行调试等等。此外,您还需要学习Windows驱动开发所要使用的API、数据结构和编程语言。 为了实现Windows驱动程序的开发工作,您需要使用C或C++编程语言,了解Windows内核的构建和组件,并熟悉Windows内核编程技术。此外,您还需要使用适当的工具和技术来管理驱动程序的安装和管理。 高清pdf完整源码是指Windows驱动开发的相关教程和示例程序集成在一个文件,以帮助Windows驱动开发者更轻松地开发驱动程序。这些源码包括文本教程、视频教程、源代码和示例文件,可以作为参考材料,帮助您学习Windows驱动开发技术,并开始进行驱动程序的开发工作。 总之,通过学习和掌握Windows驱动开发技术,您可以开发出能够与Windows操作系统无缝协作的高质量驱动程序,从而在互联网和IT行业获得更广阔的发展机会和更广阔的前景。 ### 回答3: Windows驱动开发技术是一项高难度的技术,需要掌握良好的编程技巧和深入的系统原理。对于想要学习Windows驱动开发技术的人来说,高清PDF完整源码是一份非常重要的资源。 这份资源包括了Windows驱动开发的全部内容,从基础知识到高级技术,都有详细的讲解和实例代码。其包括了驱动的设计和实现、设备管理、驱动通信、内存管理、文件操作、断处理、IO操作、安全和错误处理等方面的内容。 学习这份完整源码需要具备一定的编程经验和计算机技术知识。在学习过程,需要耐心地阅读和理解每个代码块的含义和作用,熟练掌握各种数据结构和算法。 同时,为了让自己更好地理解和掌握Windows驱动开发技术,也可以结合一些实际案例进行学习。这样能够更好地了解驱动的运行机制,增加对驱动开发思路的理解和掌握。 总的来说,学习Windows驱动开发技术需要付出大量的努力和等待,但是持之以恒,坚持不懈,积累经验,就能够成为一名优秀的驱动开发工程师。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

嵌入式与Linux那些事

您的鼓励将使我写出更好的文章

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值