4、并发同步:如果有一台支持多处理器(SMP)的机器,那么两个进程就可以真正在临界区域中同时执行,这就叫做真并发;反之称为伪并发。
并发产生的原因有:
(1)中断
(2)软中断和tasklet;
(3)内核抢占;
(4)睡眠及用户空间的同步;
(5)对称多处理
避免死锁的方式有:
死锁和数据争夺只能尽量避免
一般来说,如果系统资源充足,进程的资源请求都能够得到满足,死锁出现的可能性就很低,否则就会因争夺有限的资源而陷入死锁。
另外死锁有4个必要条件(要发生缺一不可)
(1) 互斥条件:一个资源每次只能被一个进程使用。
(2) 请求与保持条件:一个进程因请求资源而阻塞时,对已获得的资源保持不放。
(3) 不剥夺条件:进程已获得的资源,在末使用完之前,不能强行剥夺。
(4) 循环等待条件:若干进程之间形成一种头尾相接的循环等待资源关系。
通过使用较好的资源分配算法,就可以尽可能地破坏死锁的必要条件,从而尽可能地避免死锁
解决并发同步的方法:
(1)原子操作
(2)自旋锁
(3)自旋锁和下半部的问题
(4)信号量
(5)互斥体
(6)完成量
(7)禁止抢占
内核中的互斥
内核的竞态与并发
【1】内核中的并发
当内核有多条执行路径同时访问同一个共享资源时,就会造成竞态。
常见的共享资源有全局变量、静态变量、硬件的寄存器和共同使用的动态分配的同一段内存等。
造成竞态的根本原因就是内核中的代码对共享资源产生了并发(同时)的访问。
【2】内核中有哪些并发的情况
硬件中断----->当处理器允许中断的时候,一个内核执行路径可能在任何一个时间都会被一个外部中断打断。
软中断和 tasklet----->通过前面的知识我们知道,内核可以在任意硬中断快要返回之前执行软中断及 tasklet,也有可能唤醒软中断线程,并执行 tasklet
抢占内核的多进程环境----->如果一个进程在执行时发生系统调用,进入到内核,由内核代替该进程完成相应的操作,此时如有一个更高优先级的进程准备就绪,内核判断在可抢占的条件成立的情况下可以抢占当前进程,然后去执行更高优先级的进程。
普通的多进程环境----->当一个进程因为等待的资源暂时不可用时,就会主动放弃CPU,内核会调度另外一个进程来执行。
多处理器或多核CPU----->在同一时刻,可以在多个处理器上并发执行多个程序,这是真正意义上的并发。
内核提供的互斥的手段
并发对共享资源访问就会引起竞态,解决竞态的一个方法就是互斥,也就是对共享资源的串行化访间,即在一条内核执行路径上访间共享资源时,不允许其他内核执行路径来访问共享资源。共享资源有时候又叫作临界资源,而访问共享资源的这段代码又叫作临界代码段或临界区。
1.中断屏蔽
【1】中断屏蔽的要点
如果在访问共享资源之前先将中断屏蔽,然后再访问共享资源,等共享资源访问完成后再重新使能中断,就能避免竟态的产生。
需要另外说明的是,如果明确知道是哪一个中断会带来竞态,我们通常应该只屏蔽相应的中断,而不是屏蔽本地CPU的全局中断,这样可以使其他中断照常执行。
如果非要屏蔽本地CPU的中断,那么应该尽量使用local_irq_save和 local_irg_restore这对宏,因为如果中断在屏蔽之前本身就是屏蔽的,那么 local_irq_enable会将本来就屏蔽的中断错误地使能,从而造成中断使能状态的前后不一致。
中断屏蔽到中断重新使能之间的这段代码不宜过长,否则中断屏蔽的时间过长,将会影响系统的性能。
【2】比如可以在计数i++之前屏蔽中断,之后重新使能中断,代码的形式如下:
unsigned long flags;
local_irq_save(flags);
i++;
local_irg_restore(flags);
1
2
3
4
5
【3】使用中断屏蔽来做互斥时的总结
对解决中断引起的并发而带来的竟态简单高效
应该尽量使用local_irq_save和local_irg_restore来屏蔽和使能中断
中断屏蔽时间不宜过长
只能屏蔽本地CPU的中断,对于多CPU系统,中断也可能在其他CPU上产生
2.原子变量
【1】原子变量的定义
如果一个变量的操作是原子性的,即不能再被分割,类似于在汇编级代码上也只要一条汇编指令就能完成,那么对这样变量的访问就根本不需要考虑并发带来的影响。因此,内核专门提供了一种数据类型 atomic_t,用它来定义的变量为原子变量,其类型定义如下
/*include/linux/types. h */
typedef struct
{
int counter;
} atomic_t;
1
2
3
4
5
【2】操作原子变量的API接口
由上可知,原子变量其实是一个整型变量。对于整型变量,有的处理器专门提供一些指令来实现原子操作(比如ARM处理器中的swp指令),内核就会使用这些指令来对原子变量进行访问,但是有些处理器不具备这样的指令,内核将会使用其他的手段来保证对它访问的原子性,比如中断屏蔽。
内核提供了哪些接口来操作原子变量。现将主要的API罗列如下:
atomic_read(v); //读取原子变量V的值
atomic_set(v, i); //设置原子变量的值为i
int atomic_add_return(int i,atomic_t *v); //将原子变量加上i,_return 表示还要返回修改后的值
int atomic_sub_return(int i, atomic_t *v); //将原子变量减去i,_return 表示还要返回修改后的值
int atomic_add_negative(int i, atomic_t *v); //将原子变量加上i,_negative 表示当结果为负返回真
void atomic_add(int i, atomic_t *v); //将原子变量加上i
void atomic_sub(int i, atomic_t *v); //将原子变量减去i
void atomic_inc(atomic_t *v); //将原子变量自加1
void atomic_dec(atomic_t *v); //将原子变量自减1
atomic_dec_return(v); //_return 表示还要返回修改后的值
atomic_inc_return(v);
atomic_sub_and_test(i, v); //_test 表示当结果为0返回真
atomic_dec_and_test(v);
atomic_inc_and_test(v);
atomic_xchg(ptr, v); //交换V和prt指针指向的数据
atomic_cmpxchg(v, old, new); //如果V的值和old想等则将V的值设为NEW并返回原来的值
void atomic_clear_mask(unsigned long mask, atomic_t *v); //将V中的mask为1的对应位清零
void atomic_set_mask(unsigned int mask, atomic_t *v); //将V中的mask为1的对应位置1
void set_bit(int nr, volatile unsigned long *addr); //nr位置1
void clear_bit(int nr, volatile unsigned long *addr); //nr位置清零
void change_bit(int nr, volatile unsigned long *addr); //nr位置反转
int test_and_set_bit(int nr, volatile unsigned long adar); //test_表示要返回原来的值
int test_and_clear_bit(int nr, volatile unsigned long * addr);
int test_and_change_bit(int nr, volatile unsigned long addr);
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
【3】使用下面代码保证对i++的访问原子性
atomic_t i = ATOMIC_INIT(5);
atomic_inc(&i);
1
2
【4】对于非整形变量(如整个结构就不能使用这一套方法)。原子变量相比于锁机制,开销比较小。
3.自旋锁
【1】自旋锁的解释
举个例子,有A队和B队两队人去同一个篮球场打球。而A队先到达篮球场,意味着A队有篮球场的使用权,B队只能等到A队打完才能得到篮球场打球。但此时A队中有成员接到一个电话,要耽误两三分钟,但此时A队并不会将篮球场转让给B队先打,A队会继续占用篮球场,等到那个打电话的打完,才开始使用球场打球。
这里A,B两队相当于想使用共享资源(篮球场)的两个操作,A队先到达篮球场,相当于拿到了自旋锁,但是使用共享资源(篮球场)的条件还不成熟(有成员接电话),短时间内A队会一直拿着锁,直到条件成熟才继续去使用共享资源,而B队一直忙等。
【2】内核中自旋锁的类型是 spinlock_t,相关的API如下:
spin_lock_init(_lock); //初始化自旋锁,在使用自旋锁之前必须初始化
void spin_lock(spinlock_t *lock); //获取自旋锁,如果不能获取自旋锁,则进行忙等待
void spin_lock_irq(spinlock_t *lock); //获取自旋锁并竞争中断
spin_lock_irqsave(lock, flags); //获取自旋锁并竞争中断,保存中断状态到flags中
void spin_lock_bh(spinlock_t *lock); //获取自旋锁并竞争下半部
int spin_trylock(spinlock_t *lock); //尝试获取自旋锁,即使不能获取,也立即返回,返回值为0表示成功获得自旋锁,否则表没有获得自旋锁
int spin_trylock_bh(spinlock_t * lock); //其他的变体和 spin_lock变体的意义相同。
int spin_trylock_irq(spinlock t *lock);
void spin_unlock(spinlock t *lock); //释放自旋锁,其他的 unlock版本可以依据前面的解释判断其作用
void spin_unlock_irq(spinlock_t *lock);
void spin_unlock_irgrestore(spinlock t *lock, unsigned long flags);
void spin_unlock_bh(spinlock_t *lock);
1
2
3
4
5
6
7
8
9
10
11
12
13
14
【3】在i++的例子中,我们可以使用下面的代码来使自旋锁对i的操作进行互斥
int i=5;
/*定义自旋锁*/
spinlock_t lock;
/*用于保存中断屏蔽状态的变量*/
unsigned long flags;
/*使用自旋锁之前必须初始化自旋锁*/
spin_lock init(&lock);
/*访问共享资源之前获得自旋锁,禁止中断,并将之前的中断屏蔽状态保存在f1ags变量中*/
spin_lock_irqsave(&lock, flags);
/*为访问共享资源*/
i++;
/*共享资源访问完成后释放自旋锁,用f1ags的值恢复中断屏蔽的状态*/
spin_unlock_irgrestore(&lock, flags);
1
2
3
4
5
6
7
8
9
10
11
12
13
【4】关于自旋锁的一些重要特性和使用注意事项总结如下
获得自旋锁的临界代码段执行时间不宜过长,因为是忙等锁,如果临界代码段执行时间过长,就意味着其他想要获得锁的内核执行路径会进行长时间的忙等待,这会影响系统的工作效率。
自旋锁的核心要求是:拥有自旋锁的代码必须不能睡眠,要一直持有CPU直到释放自旋锁
在获得锁的期间,不能够调用可能会引起进程切换的函数,因为这会增加持锁的时间,导致其他要获取锁的代码进行更长时间的等待,更糟糕的情况是,如果新调度的进程也要获取同样的自旋锁,那么会导致死锁。
自旋锁是不可递归的,即获得锁之后不能再获得自旋锁,否则会因为等待一个不能获得的锁而将自己锁死。
自旋锁可以用在中断上下文(信号量不可以,因为可能睡眠),但是在中断上下文中获取自旋锁之前要先禁用本地中断。
4.读写锁
【1】读写锁
在并发的方式中有读一读并发、读一写并发和写一写并发三种。
很显然,一般的资源的读操作并不会修改它的值(对某些读清零的硬件寄存器除外),因此读和读之间是完全允许并发的。
但是使用自旋锁,读操作也会被加锁,从而阻止了另外一个读操作。
为了提高并发的效率,必须要降低锁的粒度,以允许读和读之间的并发。
为此,内核提供了一种允许读和读并发的锁,叫读写锁,其数据类型为 relock_t,
【2】常用的API如下
relock_init(lock)
read_trylock(lock
write_trylock(lock)
read_lock(lock)
write_lock(lock)
read_lock_irq(lock)
read_lock_irqsave(lock, flags)
read_lock_bh(lock)
write_lock_irq(lock)
write_lock_irqsave(lock, flags)
write_lock_bh(lock)
read_unlock(lock)
write_unlock(lock
read_unlock_irq(lock
read_unlock_irgrestore(lock, flags)
read_unlock_bh(lock)
write_unlock_irq(lock)
write_unlock_irgrestore(lock, flags)
write_unlock_bh(lock)
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
【3】有了前面对自旋锁的了解,相信读者都能知道这些宏的含义,下面是一个应用例子
int i=5;
unsigned long flags;
rwlock_t lock;
/*使用之前先初始化读写锁*/
rwlock_init(&lock);
/*改变变量的值之前获取写锁*/
write_lock_irgsave(&lock, flags);
i++;
write_unlock_irgrestore(&lock, flags);
int v;
/*只是获取变量的值先获得读锁*/
read_lock_irqsave(&lock, flags)
V=i;
read_unlock_irgrestore(&lock, flags);
1
2
3
4
5
6
7
8
9
10
11
12
13
14
【4】读写锁的使用总结
读写锁的使用也需经历定义、初始化、加锁和解锁的过程,只是要改变变量的值需先获取写锁,值改变完成后再解除写锁,读操作则用读锁。
这样,当一个内核执行路径在获取变量的值时,如果有另一条执行路径也要来获取变量的值,则读锁可以正常获得,从而另一条路径也能获取变量的值。
但如果有一个写在进行,那不管是写锁还是读锁都不能获得,只有当写锁释放了之后才可以。很明显,使用读写锁降低了锁的粒度,即对锁的控制更加精细了,从而获得了更高的并发性,带来了更高的工作效率。
5.顺序锁
【1】顺序锁的定义
自旋锁不允许读和读之间的并发,读写锁则更进了一步,允许读和读之间的并发,顺序锁又更进了一步,允许读和写之间的并发。
为了实现这一需求,顺序锁在读时不上锁,也就意味着在读的期间允许写,但是在读之前需要先读取一个顺序值,读操作完成后,再次读取顺序值,如果两者相等,说明在读的过程中没有发生过写操作,否则要重新读取。
显然,写操作要上锁,并且要更新顺序值。顺序锁特别适合读很多而写比较少的场合,否则由于反复的读操作,也不一定能够获取较高的效率。
顺序锁的数据类型是seqlock_t,其类型定义如下。
typedef struct
{
struct seqcount segcount;
spinlock_t lock;
}seqlock_t;
1
2
3
4
5
6
【2】显然,顺序锁使用了自旋锁的机制,并且有一个顺序值 recount。顺序锁的主要API如下:
seqlock_init(x) //初始化顺序锁。
unsigned read seqretry(const seqlock_t *sl, unsigned start); //读之后验证顺序值是否发生了变化,返回1表示需要重读,返回0表示读成功。
unsigned read seqbegin(const seqlock_t *s1); //读之前获取顺序值,函数返回顺序值。
void write_seqlock(seqlock_t *sl); //写之前加锁,其他的变体请参照自旋锁。
void write_sequnlock(seqlock_t *sl); //写之后解锁,其他的变体请参照自旋锁
void write_seqlock_bh(seqlock_t *sl);
void write_sequnlock_bh(seqlock_t *sl);
void write_seqlock_irq(seqlock_t *s1);
void write_sequnlock_irq(seqlock_t *s1);
void write_sequnlock_irqrestore(seqlock_t *sl, unsigned long flags);
write_seqlock_irqsave(lock, flags);
1
2
3
4
5
6
7
8
9
10
11
12
【3】在i++的例子中,我们可以使用下面的代码来使顺序锁对i的操作进行互斥。
int i = 5;
unsigned long flags;
/*定义顺序锁*/
seqlock_t lock;
/*使用之前必须初始化顺序锁*/
seqlock_init(&lock);
int v;
unsigned start;
do{
/*读之前要先获取顺序值*/
start = read_seqbegin(&lock);
v =i;
/*读完之后检查顺序值是否发生了变化,如果是,则要重读*/
} while (read_seqretry(&lock, start)):
/*写之前获取顺序锁*/
write_seqlock_irqsave(&lock, flags);
i++;
/*写完后释放顺序锁*/
write_sequnlock_irgrestore(&lock, flags);
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
6.信号量
【1】信号量的引入
前面所讨论的锁机制都有一个限制,那就是在锁获得期间不能调用调度器,即不能引起进程切换。
但是内核中有很多函数都可能会触发对调度器的调用,这给驱动开发带来了一些麻烦。
另外,我们也知道,对于忙等锁来说,当临界代码段执行的时间比较长的时候,会降低系统的效率。
【2】为此内核提供了一种叫信号量的机制来取消这一限制,它的数据类型定义如下:
struct semaphore
{
raw_spinlock_t lock;
unsigned int count;
struct list_head wait listi;
};
1
2
3
4
5
6
可以看到,它有一个 count成员,这是用来记录信号量资源的情况的,当 count的值不为0时是可以获得信号量的,当 count的值为0时信号量就不能被获取,这也说明信号量可以同时被多个进程所持有。
我们还看到了一个 wait_list成员,不难猜想,当信号量不能获取时,当前的进程就应该休眠了。最后,lock成员在提示我们,信号量在底层其实使用了自旋锁的机制。
【3】信号量最常用的API接口如下:
void sema_init(struct semaphore *sem, int val); //用于初始化信号量,val是赋给 count成员的初值,这样就可以有val个进程同时获得信号量。
void down(struct semaphore "sem); //获取信号量(信号量的值减1),当信号量的值不为0时,可以立即获取信号量,否则进程休眠。
int down_interruptible(struct semaphore *sem); //同down,但是能够被信号唤醒
int down_trylock(struct semaphore *sem); //只是尝试获取信号量,如果不能获取立即返回,返回0表示成功获取,返回1表示获取失败。
int down_timeout (struct semaphore *sem,sem, long jiffies); //同down,但是在jies个时钟周期后如果还没有获取信号量,则超时返回,返回0表示成功获取信号量,返回负值表示超时
void up(struct semaphore *sem); //释放信号量(信号量的值加1),如果有进程等待信号量,则唤醒这些进程
1
2
3
4
5
6
【4】当给信号量赋初值1时,则表示在同一时刻只能有一个进程获得信号量,这种信号量叫二值信号量,利用这种信号量可以实现互斥,典型的应用代码如下。
/*定义信号量*/
struct semaphore sem;
/*初始化信号量,赋初值为1,用于互斥*/
sema_init(&sem, 1);
/*获取信号量,如果是被信号唤醒,则返回一 ERESTARTSYS*/
if (down_interruptible(&sem))
return -ERESTARTSYS;
/*对共享资源进行访问,执行一些耗时的操作或可能会引起进程调度的操作*/
xxxxxxxx
/*共享资源访问完成后,释放信号量*/
up(&sem);
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
【5】对于信号量的特点及其他的一些使用注意事项总结如下:
信号量可以被多个进程同时持有,当给信号量赋初值1时,信号量成为二值信号量,也称为互斥信号量,可以用来互斥。
如果不能获得信号量,则进程休眠,调度其他的进程执行,不会进行忙等待。
因为获取信号量可能会引起进程切换,所以不能用在中断上下文中,如果必须要用,只能使用 down_trylock。不过在中断上下文中可以使用up释放信号量,从而唤醒其他进程。
持有信号量期间可以调用调度器,但需要特别注意是否会产生死锁。
信号量的开销比较大,在不违背自旋锁的使用规则的情况下,应该优先使用自旋锁。
7.互斥量
【1】互斥量的引入
信号量除了不能用于中断上下文,还有一个缺点就是不是很智能。在获取信号量的代码中,只要信号量的值为0,进程马上就休眠了。
更一般的情况是,在不会等待太长的时间后,信号量就可以马上获得,那么信号量的操作就要经历使进程先休眠再被唤醒的一个漫长过程。
在信号量不能获取的时候,稍微耐心地等待一小段时间,如果在这段时间能够获取信号量,那么获取信号量的操作就可以立即返回,否则再将进程休眠也不迟。
为了实现这种比较智能化的信号量,内核提供了另外一种专门用于互斥的高效率信号量,也就是互斥量,也叫互斥体,类型为 struct_mutex.
【2】互斥量的相关API
mutex_init(mutex);
void mutex_lock(struct mutex *lock);
int mutex_lock_interruptible(struct mutex *lock);
int mutex_trylock(struct mutex *lock);
void mutex_unlock(struct mutex *lock);
1
2
3
4
5
【3】有了前面互斥操作的基础,使用互斥量来做互斥也就很容易实现了,示例代码如下:
int i = 5
/*定义互斥量*/
struct mutex lock;
/*使用之前初始化互斥量*/
mutex_init(&lock);
/*访问共享资源之前获得互斥量*/
mutex_lock(&lock);
i++;
/*访问完共享资源后释放互斥量*/
mutex_unlock(&lock);
1
2
3
4
5
6
7
8
9
10
11
12
13
14
【4】互斥量的使用比较简单,不过它还有一些更多的限制和特性,现将关键点总结如下:
要在同一上下文对互斥量上锁和解锁,比如不能在读进程中上锁,然后在写进程中解锁。
和自旋锁一样,互斥量的上锁是不能递归的。
当持有互斥量时,不能退出进程
不能用于中断上下文,即使 mutex_trylock也不行。
持有互斥量期间,可以调用可能会引起进程切换的函数
在不违背自旋锁的使用规则时,应该优先使用自旋锁。
在不能使用自旋锁但不违背互斥量的使用规则时,应该优先使用互斥量,而不是信号量。
8.Rcu机制
【1】Rcu机制的引入
RCU( Read-Copy Update)机制即读一复制一更新。
RCU机制对共享资源的访问都是通过指针来进行的,读者(对共享资源发起读访问操作的代码)通过对该指针进行解引用,来获取想要的数据。
写者在发起写访问操作的时候,并不是去写以前的共享资源内存,而是另起炉灶,重新分配一片内存空间,复制以前的数据到新开辟的内存空间(有时不用复制),然后修改新分配的内存空间里面的内容。
当写结束后,等待所有的读者都完成了对原有内存空间的读取后,将读的指针更新,指向新的内存空间,之后的读操作将会得到更新后的数据。
这非常适合于读访问多、写访问少的情况,它尽可能地减少了对锁的使用。
【2】内核使用RCU机制实现了对数组、链表和NMI(不可屏蔽中断)操作的大量API,不过要能理解RCU,通过下面几个最简单的AP即可
void rcu_read_lock(void); //读者进入临界区
rcu_dereference(p) //读者用于获取共享资源的内存区指针
void rcu_read_unlock(void); //读者退出临界区
rcu_assign_pointer(p, v) //用新指针更新老指针
void synchronize_rcu(void); //等待之前的读者完成读操作
1
2
3
4
5
【3】使用RCU机制最简单的示例代码如下:
struct foo //共享资源的数据类型定义
{
int a;
char b;
long C;
};
DEFINE_SPINLOCK(foo_mutex); //定义了一个用于写保护的自旋锁
struct foo *gbl_foo; //定义了一个指向共享资源数据的全局指针
void foo_update_a(int new_a)
{
struct foo *new_fp;
struct foo *old_fp;
new_fp= kmalloc(sizeof (*new_fp), GEP_KERNEL); //写者分配了一片新的内存
spin_lock(&foo_mutex);
old_fp = gbl_foo; //保存原来的指针
*new_fp = *old_fp; // 数据复制,即将原来的内存中的数据复制到新的内存中
new_fp->a = new_a; //完成对新内存中数据的修改
rcu_assign_pointer(gbl_foo, new_fp); //用新的指针更新原来的指针在这之后不能立即释放原来的指针所指向的内存,因为可能还有读者在使用原来的指针访问共享资源的数据
spin_unlock(&foo mutex); //在数据更新和指针更新时使用了自旋锁进行保护
synchronize_rcu(); //等待使用原来指针的读者,当所有使用原来的指针的读者都读完数据后,
kfree(old_fp); //释放原来的指针所指向的内存
}
int foo_get_a(void)
{
int retval;
rcu_read_lock(); //读者进入临界区
retval = rcu_dereference(gbl foo)->a; //获取共享资源的内存指针后进行解引用,获取相关的数据
rcu_read_unlock(); //访问完成后,退出临界区
return retval;
}
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
内核中的同步
1.完成量
【1】讨论完内核中的互斥后,接下来我们来看看内核中的同步
同步是指内核中的执行路径需要按照一定的顺序来进行,例如执行路径A要继续往下执行则必须要保证执行路径B执行到某一个点才行。
以一个ADC设备来说,假设一个驱动中的一个执行路径是将ADC采集到的数据做某些转换操作(比如将若干次采样结果做平均),而另一个执行路径专门负责ADC采样,那么做转换操作的执行路径要等待做采样的执行路径。
同步可以用信号量来实现,就以上面的ADC驱动来说,可以先初始化一个值为0的信号量,做转换操作的执行路径先用down来获取这个信号量,如果在这之前没有采集到数据,那么做转换操作的路径将会休眠等待。
当做采样的路径完成采样后,调用释放信号量,那么做转换操作的执行路径将会被唤醒。这就保证了采样发生在转换之前,也就完成了采样和转换之间的同步。
【2】不过内核专门提供了一个完成量来实现该操作,完成量的结构类型定义如下:
struct completion
{
unsigned int done; //done是否完成的状态,是一个计数值,为0表示未完成
wait_queue_head_t wait; //wait是一个等待队列头
};
1
2
3
4
5
回想前面阻塞操作的知识,不难想到完成量的工作原理。
当done为0时进程阻塞,当内核的其他执行路径使done的值大于0时,负责唤醒被阻塞在这个完成量上的进程。
【3】完成量的主要AP如下:
void init_completion(struct completion *x);
wait_for_completion(struct completion *);
wait_for_completion_interruptible(struct completion *x);
unsigned long wait_for_completion_timeout(struct completion *x, unsigned longtimeout);
long wait_for_completion_interruptible_timeout(struct completion *x, unsignedlong timeout);
bool try_wait_for_completion(struct completion *x);
void complete(struct completion *);
void complete all(struct completion *);
1
2
3
4
5
6
7
8
有了前面知识的积累,上面函数的作用及参数的意义都能见名知意,在这里就不再细述。
只是需要说明一点, complete唤醒一个进程,而 complete_al唤醒所有体眠的进程。
【4】完成量的使用例子如下:
/定义完成量*/
struct completion comp;
/*使用之前初始化完成量*/
init_completion(&comp);
/*等待其他任务完成某个操作*/
wait_for_completion(&comp);
/*某个操作完成后,唤醒等待的任务*/
complete(&comp);