【Linux驱动】轮询操作select()和poll()

使用非阻塞I/O的应用程序通常会使用select()和poll()系统调用查询可对设备进行无阻塞的访问。select()和poll()系统调用最终会引发设备驱动中的poll()函数被执行。
select()和poll()系统调用的本质是一样的。本系列只关注设备驱动中的函数层,对于应用层具体请参考《APUE》或《TLPI》(linux/unix系统编程手册),楼主手上就有这两本书,在编写应用态测试程序时,拿这两本书当参考手册。
还算和前面一样,本系列也不负责具体驱动层函数原型的解释,请参考《LDD》,先看代码:

关键词:poll_wait()

#include <linux/module.h>
#include <linux/types.h>
#include <linux/init.h>
#include <linux/fs.h>
#include <linux/cdev.h>
#include <linux/wait.h>
#include <linux/sched.h>
#include <linux/errno.h>
#include <asm/uaccess.h>
#include <linux/poll.h>
#include <linux/semaphore.h>

MODULE_LICENSE("Dual BSD/GPL");

#define DEBUG_SWITCH 1
#if DEBUG_SWITCH
    #define P_DEBUG(fmt, args...)  printk("<1>" "<kernel>[%s]"fmt,__FUNCTION__, ##args)
#else
    #define P_DEBUG(fmt, args...)  printk("<7>" "<kernel>[%s]"fmt,__FUNCTION__, ##args)
#endif

#define DEV_SIZE 20//方便测试写进程阻塞
#define WQ_MAJOR 230

struct wq_dev{
    char kbuf[DEV_SIZE];//缓冲区
    dev_t devno;//设备号
    unsigned int major;
    struct cdev wq_cdev;
    unsigned int cur_size;//可读可写的数据量
    struct semaphore sem;//信号量
    wait_queue_head_t r_wait;//读等待队列
    wait_queue_head_t w_wait;//写等待队列
};

//struct wq_dev *wq_devp;

int wq_open(struct inode *inodep, struct file *filp)
{
    struct wq_dev *dev;
    dev = container_of(inodep->i_cdev, struct wq_dev, wq_cdev);
    filp->private_data = dev;
    printk(KERN_ALERT "open is ok!\n");
    return 0;
}

int wq_release(struct inode *inodep, struct file *filp)
{
    printk(KERN_ALERT "release is ok!\n");
    return 0;
}

static ssize_t wq_read(struct file *filp, char __user *buf, size_t count, loff_t *offset)
{
    struct wq_dev *dev = filp->private_data;

    P_DEBUG("read data...\n");

    if(down_interruptible(&dev->sem))//获取信号量
    {
        P_DEBUG("enter read down_interruptible\n");
        return -ERESTARTSYS;
    }
    P_DEBUG("read first down\n");
    while(dev->cur_size == 0){//无数据可读,进入休眠lon
        up(&dev->sem);//释放信号量,不然写进程没有机会来唤醒(没有获得锁)
        if(filp->f_flags & O_NONBLOCK)//检查是否是阻塞型I/O
            return -EAGAIN;
        P_DEBUG("%s reading:going to sleep\n", current->comm);
        if(wait_event_interruptible(dev->r_wait, dev->cur_size != 0))//休眠等待被唤醒
        {
            P_DEBUG("read wait interruptible\n");
            return -ERESTARTSYS;
        }
        P_DEBUG("wake up r_wait\n");
        if(down_interruptible(&dev->sem))//获取信号量
            return -ERESTARTSYS;
    }

    //数据已就绪
    P_DEBUG("[2]dev->cur_size is %d\n", dev->cur_size);
    if(dev->cur_size > 0)
        count = min(count, dev->cur_size);

    //从内核缓冲区赋值数据到用户空间,复制成功返回0
    if(copy_to_user(buf, dev->kbuf, count))
    {
        up(&dev->sem);
        return -EFAULT;
    }   
    dev->cur_size -= count;//可读数据量更新
    up(&dev->sem);
    wake_up_interruptible(&dev->w_wait);//唤醒写进程
    P_DEBUG("%s did read %d bytes\n", current->comm, (unsigned int)count);
    return count;
}

static ssize_t wq_write(struct file *filp, char __user *buf, size_t count, loff_t *offset)
{
    struct wq_dev *dev = filp->private_data;
    //wait_queue_t my_wait;
    P_DEBUG("write is doing\n");    
    if(down_interruptible(&dev->sem))//获取信号量
    {
        P_DEBUG("enter write down_interruptible\n");
        return -ERESTARTSYS;
    }
//  init_wait(&my_wait);
//  add_wait_queue(&dev->w_wait, &my_wait);
    P_DEBUG("write first down\n");
    while(dev->cur_size == DEV_SIZE){//判断空间是否已满

        up(&dev->sem);//释放信号量
        if(filp->f_flags & O_NONBLOCK)
            return -EAGAIN;
        P_DEBUG("writing going to sleep\n");
        if(wait_event_interruptible(dev->w_wait, dev->cur_size < DEV_SIZE))
            return -ERESTARTSYS;
    //  __set_current_state(TASK_INTERRUPTIBLE);//设置当前进程状态
    //  up(&dev->sem);//释放信号量
    //  P_DEBUG("befor schedule\n");
    //  schedule();//进程调度,当前进程进入休眠
    //  if(signal_pending(current))//检查当前进程是否有信号处理,返回不为0表示有信号处理
    //      return -EAGAIN;
    //  P_DEBUG("after schedule\n");
        if(down_interruptible(&dev->sem))//获取信号量
            return -ERESTARTSYS;
    }
    if(count > DEV_SIZE - dev->cur_size)
        count = DEV_SIZE - dev->cur_size;

    if(copy_from_user(dev->kbuf, buf, count))//数据复制
        return -EFAULT;
    dev->cur_size += count;//更新数据量
    P_DEBUG("write %d bytes , cur_size:[%d]\n", count, dev->cur_size);
    P_DEBUG("kbuf is [%s]\n", dev->kbuf);
    up(&dev->sem);
    wake_up_interruptible(&dev->r_wait);//唤醒读进程队列
    return count;
}

static unsigned int wq_poll(struct file *filp, poll_table *wait)
{
    struct wq_dev *dev = filp->private_data;
    unsigned int mask = 0;

    if(down_interruptible(&dev->sem))//获取信号量
        return -ERESTARTSYS;
    poll_wait(filp, &dev->w_wait, wait);//添加写等待队列
    poll_wait(filp, &dev->r_wait, wait);//添加读等待队列

    if(dev->cur_size != 0)//判断是否可读取
        mask |= POLLIN | POLLRDNORM;
    if(dev->cur_size != DEV_SIZE)//判断是否可写入
        mask |= POLLOUT | POLLWRNORM;

    up(&dev->sem);//释放信号量
    return mask;
}
struct file_operations wq_fops = {
    .open = wq_open,
    .release = wq_release,
    .write = wq_write,
    .read = wq_read,
    .poll = wq_poll,
};

struct wq_dev my_dev;

static int __init wq_init(void)
{
    int result = 0;
    my_dev.cur_size = 0;
    my_dev.devno = MKDEV(WQ_MAJOR, 0);
    //设备号分配
    if(WQ_MAJOR)
        result = register_chrdev_region(my_dev.devno, 1, "wqlkp");
    else
    {
        result = alloc_chrdev_region(&my_dev.devno, 0, 1, "wqlkp");
        my_dev.major = MAJOR(my_dev.devno);
    }
    if(result < 0)
        return result;

    cdev_init(&my_dev.wq_cdev, &wq_fops);//设备初始化
    my_dev.wq_cdev.owner = THIS_MODULE;
    sema_init(&my_dev.sem, 1);//信号量初始化
    init_waitqueue_head(&my_dev.r_wait);//等待队列初始化
    init_waitqueue_head(&my_dev.w_wait);

    result = cdev_add(&my_dev.wq_cdev, my_dev.devno, 1);//设备注册
    if(result < 0)
    {
        P_DEBUG("cdev_add error!\n");
        goto err;
    }
    printk(KERN_ALERT "hello kernel\n");
    return 0;

err:
    unregister_chrdev_region(my_dev.devno,1);
}

static void __exit wq_exit(void)
{
    cdev_del(&my_dev.wq_cdev);
    unregister_chrdev_region(my_dev.devno, 1);
}

module_init(wq_init);
module_exit(wq_exit);

我们分析下wq_poll函数:你会发现其中的两个参数与用户层调用的select/poll函数的参数不一致,实际上这两参数都不是用户传给他的,全部是由内核传的。

重点是poll_wait(struct file , wait_queue_head_t , poll_table *);看源码

//poll.h(source insight 3.5)
/* 
 * structures and helpers for f_op->poll implementations
 */
typedef void (*poll_queue_proc)(struct file *, wait_queue_head_t *, struct poll_table_struct *);

typedef struct poll_table_struct {
    poll_queue_proc qproc;
} poll_table;

static inline void poll_wait(struct file * filp, wait_queue_head_t * wait_address, poll_table *p)
{
    if (p && wait_address)
        p->qproc(filp, wait_address, p);
}
static inline void init_poll_funcptr(poll_table *pt, poll_queue_proc qproc)
{
    pt->qproc = qproc;
}
//poll_wait()的参数就是传到poll_table_entry结构体中
struct poll_table_entry {
    struct file * filp;
    wait_queue_t wait;
    wait_queue_head_t * wait_address;
};
//select.h
/* Add a new entry */
static void __pollwait(struct file *filp, wait_queue_head_t *wait_address,
                poll_table *p)
{
    struct poll_table_entry *entry = poll_get_entry(p);//得到实体结构
    if (!entry)
        return;
    get_file(filp);
    entry->filp = filp;
    entry->wait_address = wait_address;
    init_waitqueue_entry(&entry->wait, current);//初始化
    add_wait_queue(wait_address,&entry->wait);//添加到等待队列中
}

综上,poll的内部实现主要是调用poll_wait()实现的,poll_wait()实际上是调用__pollwait(),该函数先通过参数poll_table型参数p获得一个poll_table_entry结构,然后初始化该结构,然后添加到等待队列中。
简而言之就是,把当前进程(通过成员找到整个结构体,container_of)添加到wait参数指定的等待队列(poll_table)中。

需要注意的是,从poll_wait的源码可以看出,该函数并不会引起阻塞。
阻塞发生在select/poll系统调用。等到有数据时被唤醒(可写或者可读),在有数据时,需要唤醒等待队列头,此时设备可工作(读或写)了,就会再次调用wq_poll(),返回相应掩码调用成功。

从do_select()中,我们可以看到wq_poll()会被调用多次(f_op->poll),其在循环中不断轮询,所以可以看出poll只是做了一个判断工作,真正的阻塞发生在select中。

那么select又是怎么操作的呢?继续挖掘:
这是Linux内核中select的调用。select() -> sys_select() -> core_sys_select() -> do_select() -> poll_initwait() -> init_poll_funcptr()

PS:小技巧,你要查看应用层的API的内核实现源码的话,一般进入系统调用是sys_API函数名,然后里会调用do_API函数名之类的

(点到即止,不然进死胡同了…参数省略了,读者可逐步跟踪,通过阅读上面函数的实现,可以看出阻塞是发生在select的系统调用中,我们的wq_poll内部不阻塞)其中,init_poll_funcptr(&pwq->pt, __pollwait);
从这里就可以看出poll_wait,最终调用的就是__pollwait函数
用户态程序:

#include <stdio.h>
#include <sys/types.h>
#include <sys/stat.h>
#include <fcntl.h>
#include <sys/select.h>
#include <unistd.h>

int main(void)
{
    int fd;
    fd_set r_fset, w_fset;

    fd = open("/dev/wqlkp", O_RDWR);
    if(fd < 0)
    {
        perror("open");
        return -1;
    }

    FD_ZERO(&r_fset);
    FD_ZERO(&w_fset);

    while(1)
    {
        FD_SET(fd, &r_fset);
        FD_SET(fd, &w_fset);

        select(fd+1, &r_fset, &w_fset, NULL, NULL);

        if(FD_ISSET(fd, &r_fset))
            printf("device readable\n");
        if(FD_ISSET(fd, &w_fset))
            printf("device writeable\n");

    }

    return 0;
}

测试需要结合前面的./app_write和./app_read。
运行./app_poll (gcc -o app_poll app_poll.c),终端不断打印可写入通知,然后运行./app_write之后,终端就会打印可写入和可读出通知,当连续运行几次./app_write,内核缓冲区满了之后,就只会连续打印可读出通知。

可以看出,linux内核设备驱动就是根据VFS提供的函数接口,来针对性的实现你的底层操作,file_operations结构体的赋值实际上可以看做是这些底层操作函数的注册。

这样保证了应用层依旧用统一的函数接口来编写应用程序,不用管底层驱动是怎么实现的,这对于应用程序员来说就是一个黑盒子,类似于我们的linux应用程序开发,只需要如何操作API就行,具体这些API内部是怎么实现的就是linux驱动开发人员负责的事情了,驱动开发人员要尽量保证自己实现的语义是和标准语义是一致的。
所以,对于linux内核驱动开发而言,除了熟悉linux 内核之外,也是需要了解应用层API的,算起来高端一丢丢

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值