Linux驱动技术(八) _并发控制技术

系统 Linux 系统运维
为了实现对临界资源的有效管理,应用层的程序有原子变量,条件变量,信号量来控制并发,同样的问题也存在与驱动开发中,比如一个驱动同时被多个应用层程序调用,此时驱动中的全局变量会同时属于多个应用层进程的进程空间,这种情况下也要使用一些技术来实现对并发的控制。本文将讨论内核中下述并发控制技术的技术特点和应用场景。

为了实现对临界资源的有效管理,应用层的程序有原子变量,条件变量,信号量来控制并发,同样的问题也存在与驱动开发中,比如一个驱动同时被多个应用层程序调用,此时驱动中的全局变量会同时属于多个应用层进程的进程空间,这种情况下也要使用一些技术来实现对并发的控制。本文将讨论内核中下述并发控制技术的技术特点和应用场景。

1.中断屏蔽

2.原子操作

   a.原子变量操作

   b.原子位操作

3.自旋锁

   a.传统自旋锁

   b.读写自旋锁

   c.顺序锁

   d.RCU

4.信号量

   a.传统信号量

   b.读写信号量

   c.完成量

5.互斥量

中断屏蔽

顾名思义,就是屏蔽所有的中断。在嵌入式系统,中断屏蔽可以有三级,

1. 硬件接口的屏蔽,

2. 硬件GIC的屏蔽,

3. CPU(内核)的屏蔽。

如果在接口处屏蔽了,那么中断来了就丢了,根本找不到。如果在GIC处屏蔽了,那么在屏蔽期间如果来了irq_1,irq_2,irq_3个中断,因为只有一个pending标志位,所以***irq_3来的时候会将pending置位,之后解除屏蔽了,CPU发现pending有置位,还是会处理,但是1,2就肯定丢了。在ARM处的屏蔽,即内核中的屏蔽,看怎么设置了,如果就是local_irq_disable,那么丢了就是丢了,和在接口处屏蔽一样,如果是local_irq_save就和第二种一样,追到***一个中断,内核也有相应的机制进行中断计数,知道这期间来了多少个中断,但是实际操作中,大部分情况我们都不会追着执行错过的中断,除非这个中断非常重要。

我们这里讨论的,就是在内核中进行中断屏蔽。由于内核中很多重要的操作都要依赖于中断,所以屏蔽所有的中断是十分危险的,里面执行的代码要尽可能的快,而且,由于内核的进程调度也是由中断驱动的,所以中断屏蔽中不能有可能引发休眠的代码,否则无法被唤醒。注意,中断屏蔽只是屏蔽了本CPU的中断,所以并不能解决SMP引发的竞泰问题,通常,中断屏蔽要和自旋锁联合使用,用于防止访问自旋锁保护的临界区时被中断打断

普通的中断屏蔽

  1. local_irq_disable();    //屏蔽中断//或 
  2.  
  3. local_irq_save(flags);  //屏蔽中断并保存目前CPU中的中断位信息/* 临界区 */ 
  4.  
  5. local_irq_enable();     //解除屏蔽//或 
  6.  
  7. local_irq_restore(flags);   //解除屏蔽并恢复中断位信息 

底半部的中断屏蔽

  1. local_bh_disable();     //屏蔽中断 
  2.  
  3. /* 临界区 */ 
  4. local_bh_enable();  

原子操作

原子操作即不能被打断的操作,和应用层的概念一样,内核中的原子操作模板如下:

整型原子变量

  1. //asm/atomic.h 
  2. //创建并初始化原子变量 
  3.  
  4. atomic_t tv = ATOMIC_INIT(初值);//读原子变量 
  5.  
  6. int atomic_read(atomic_t *v);//写原子变量 
  7.  
  8. void atomic_set(atomic_t *v, int i);  
  9.  
  10. /** 
  11.  *atomic_dec_and_test - 尝试将原子变量-1 
  12.  *v:如果-1之后原子变量变为0,返回非0, 否则返回0 
  13.  */ 
  14.  
  15. int atomic_dec_and_test(volatile atomic_t *v); 
  16. int atomic_inc_and_test(volatile atomic_t *v); 
  17. int atomic_sub_and_test(int i, volatile atomic_t *v);//操作并返回 
  18.  
  19. int atomic_add_return(int i, atomic *v); 
  20. int atomic_sub_return(int i, atomic *v); 
  21. int atomic_inc_return(atomic *v); 
  22. int atomic_dev_return(atomic *v);  

模板

  1. static atomic_t tv; 
  2. static int demo_open( 
  3.   struct inode *inode, struct file *filp){ 
  4.     if(!atomic_dec_and_test(&tv)){ 
  5.         atomic_inc(&tv); 
  6.         return -EBUSY; 
  7.     }    /* 操作代码 */ 
  8.     return 0; 
  9. static int demo_release(struct inode *inode, struct file *filp){ 
  10.     atomic_inc(&tv); 
  11.     return 0; 
  12. static int __init demo_init(void){    // init atomic_t 
  13.     atomic_set(&tv, 1); 
  14.  

位原子操作

位原子操作即原子的位操作,内核中大量使用"位"来记录信息,比如位图,这些操作都必须是原子性的,内核API如下:

  1. //设置位 
  2.  
  3. void set_bit(nr,void *addr);//清除位 
  4.  
  5. void clear_bit(nr,void *addr);//改变位 
  6.  
  7. void change_bit(nr,void *addr);//测试位 
  8.  
  9. test_bit(nr, void *addr);//测试并操作位 
  10.  
  11. int test_and_set_bit(nr, void *addr); 
  12. int test_and_clear_bit(nr,void *addr); 
  13. int test_and_change_bit(nr,void *addr); 

自旋锁

意即"在原地打转",当加锁不成功时,自旋,自旋锁会不断的占用CPU进行变量的测试,由于属于原子操作,所以该CPU的占用会升为100%,所以,使用自旋锁时,临界区的代码需要很短,否则会影响系统性能,此外,作为锁机制的一种,使用自旋锁同样需要注意死锁的出现,自旋锁锁定期间不能调用可能引起进程调度的函数,如果进程获得自旋锁之后再阻塞,eg,copy_from_user(),copy_to_user(),kmalloc(),msleep()等,一旦阻塞发生就可能导致内核 崩溃。

自旋锁可以用来解决SMP竞态问题。不同类型的自旋锁有自己的处理机制,适用于不同的情况。包括传统自旋锁,读写自旋锁,RCU机制,顺序锁等,自旋锁是信号量,互斥体的的底层实现工具。

比较\类型 传统自旋锁 读写自旋锁 顺序锁 RCU机制
应用场合 需要上锁者独占的资源 需要写者独占的资源 很少同时读写的资源 读多写少的资源
读+读 并发 ×
读+写 并发 × ×
写+写 并发 × × ×

和其他锁机制的一样,使用自旋锁保护数据分为抢锁-操作-解锁,下面就是一个典型的使用锁的流程,通过自旋锁实现一个文件只被一个进程打开。

  1. int cnt=0; 
  2. lock_t lock;static int my_open(){ 
  3.     lock(&lock); 
  4.     if(cnt){ 
  5.         unlock(&lock) 
  6.     } 
  7.     cnt++; 
  8.     unlock(&lock); 
  9. static int release(){ 
  10.     lock(&lock); 
  11.     cnt--; 
  12.     unlock(&lock); 
  13.  

传统自旋锁

是一种比较粗暴的自旋锁,使用这种锁的时候,被锁定的临界区域不允许其他CPU访问,需要注意的是,尽管获得锁之后执行的临界区操作不会被其他CPU和本CPU内其他抢占进程的打扰,但是仍然会被中断和底半部的影响,所以通常我们会使用下述API中的衍生版本,比如上文中提到的将自旋锁+中断屏蔽来防止使用自旋锁访问临界资源的时候被中断打断,对应的宏函数就是spin_lock_irq和spin_lock_irqsave。

  1. //定义并初始化自旋锁spinlock_t spinlock 
  2. void spin_lock_init(spinlock_t *);//加锁 
  3. //spin_lock - 加锁函数(忙等) 
  4.  
  5. void spin_lock(spinlock_t *lock); 
  6. int spin_trylock(spinlock_t *lock); 
  7. spin_lock_irq(); 
  8. //=spin_lock() + local_irq_disable()spin_lock_irqsave(); 
  9. //= spin_lock() + lock_irq_save(); 
  10.  
  11. spin_lock_bh(); 
  12. //=spin_lock() + local_bh_disable(); 
  13. //解锁 
  14.  
  15. void spin_unlock(spinlock_t *lock); 
  16. spin_unlock_irq();     
  17. //=spin_unlock() + local_irq_enable() 
  18.  
  19. spin_unlock_irqrestore(); 
  20. //= spin_unlock() + lock_irq_restore(); 
  21. spin_unlock_bh();      
  22. //=spin_unlock() + local_bh_enable();  

读写自旋锁

传统的自旋锁粗暴的将临界资源划归给一个CPU,但是很多资源都不会因为读而被破坏,所以我们可以允许多个CPU同时读临界资源,但不允许同时写资源,类似于应用层的文件锁,内核的读写锁机制同样有下述互斥原则:

  • 读者 + 读者 不互斥
  • 读者 + 写者 互斥
  • 写者 + 写者 互斥
  1. //include/linux/rwlock.h 
  2. //定义并初始化自旋锁 
  3.  
  4. rwlock_t rwlock; 
  5. void rwlock_init(rwlock_t *lock); 
  6.  
  7. //加读锁 
  8.  
  9. void read_lock(rwlock_t *lock); 
  10. int read_trylock(rwlock_t *lock); 
  11. void read_lock_irqsave(rwlock_t *lock,unsigned long flags); 
  12. void read_lock_irq(rwlock_t *lock, unsigned long flags); 
  13. void read_lock_bh(rwlock_t *lock); 
  14.  
  15. //解读锁 
  16.  
  17. void read_unlock(rwlock_t *lock); 
  18. void read_unlock_irqrestrore(rwlock_t *lock,unsigned long flags); 
  19. void read_unlock_irq(rwlock_t *lock, unsigned long flags); 
  20. void read_unlock_bh(rwlock_t *lock); 
  21.  
  22. //加写锁 
  23.  
  24. void write_lock(rwlock_t *lock); 
  25. int write_trylock(rwlock_t *lock); 
  26.  
  27. void write_lock_irqsave(rwlock_t *lock,unsigned long flags); 
  28. void write_lock_irq(rwlock_t *lock, unsigned long flags); 
  29. void write_lock_bh(rwlock_t *lock); 
  30.  
  31. //解写锁 
  32.  
  33. void write_unlock(rwlock_t *lock); 
  34. void write_unlock_irqrestrore(rwlock_t *lock,unsigned long flags); 
  35. void write_unlock_irq(rwlock_t *lock, unsigned long flags); 
  36. void write_unlock_bh(rwlock_t *lock); 

顺序锁

顺序锁可以看作读写锁的升级版,读写锁不允许同时存在读者和写者,顺序锁对这一情况进行了改良,它允许写者和读者同时访问临界区,不必再向读写锁那样读者要读必须等待写者写完,写者要写必须等待读者读完。不过,使用顺序锁的时候,临界区不能有指针,因为写者可能会修改指针的指向,如果读者去读,就会Oops,此外,如果读者读过的数据被写者改变了,读者需要重新读,以维持数据是***的,虽然有这两个约束,但是顺序锁提供了比读写锁更大的灵活性。对于写者+写者的情况,顺序锁的机制和读写锁一样,必须等!

  • 读者 + 读者 不互斥
  • 读者 + 写者 不互斥 , 临界区没有指针+读者需自己注意更新
  • 写者 + 写者 互斥
  1. //include/linux/seqlock.h 
  2. //定义顺序锁 
  3.  
  4. struct seqlock_t sl;//获取顺序锁 
  5.  
  6. void write_seqlock(seqlock_t *sl); 
  7. void write_tryseqlock(seqlock_t *sl); 
  8. void write_seqlock_irqsave(lock,flags);  
  9. //=local_irq_save() + write_seqlock() 
  10.  
  11. void write_seqlock_irq(seqlock_t *sl); 
  12. //=local_irq_disable() + write_seqlock() 
  13.  
  14. void write_seqlock_bh(seqlock_t *sl); 
  15. //local_bh_disable() + write_seqlock() 
  16. //释放顺序锁 
  17.  
  18. void write_sequnlock(seqlock_t *sl); 
  19. void write_sequnlock_irqsave(lock,flags); 
  20. //=local_irq_restore() + write_sequnlock() 
  21.  
  22. void write_sequnlock_irq(seqlock_t *sl);  
  23. //=local_irq_enable() + write_sequnlock() 
  24.  
  25. void write_sequnlock_bh(seqlock_t *sl); 
  26. //local_bh_enable() + write_sequnlock() 
  27. //读开始 
  28.  
  29. unsigned read_seqbegin(const seqlock_t *sl); 
  30. read_seqbegin_irqsave(lock,flags); 
  31. //=local_irq_save() + read_seqbegin(); 
  32. //重读 
  33.  
  34. int read_seqretry(const seqlock_t *sl,unsigned iv); 
  35. read_seqretry_irqrestore(lock,iv,flags); 
  36. //=local_irq_restore() + read_seqretry();  

RCU

RCU即Read-Copy Update,即读者直接读,写者先拷贝再择时更新,是另外一种读写锁的升级版,这种机制在VFS层被大量使用。正如其名,读者访问临界资源不需要锁,从下面的rcu_read_lock的定义即可看出,写者在写之前先将临界资源进行备份,去修改这个副本,等所有的CPU都退出对这块临界区的引用后,再通过回调机制,将引用这块资源的原指针指向已经修改的备份。从中可以看出,在RCU机制下,读者的开销大大降低,也没有顺序锁的指针问题,但是写者的开销很大,所以RCU适用于读多写少的临界资源。如果写操作很多,就有可能将读操作节约的性能抵消掉,得不偿失。

  • 读者 + 读者 不互斥
  • 读者 + 写者 不互斥 , 读者自己注意更新
  • 写者 + 写者 不互斥 ,写者之间自己去同步

内核会为每一个CPU维护两个数据结构-rcu_data和rcu_bh_data,他们用于保存回调函数,函数call_rcu()把回调函数注册到rcu_data,而call_rcu_bh()则把回调函数注册到rcu_bh_data,在每一个数据结构上,回调函数们会组成一个队列。

使用RCU时,读执行单元必须提供一个信号给写执行单元以便写执行单元能够确定数据可以被安全地释放或修改的时机。内核中有一个专门的垃圾收集器来探测读执行单元的信号,一旦所有的读执行单元都已经发送信号告诉收集器自己都没有使用RCU的数据结构,收集器就调用回调函数完成***的数据释放或修改操作。

读即RCU中的R,从下面的宏定义可以看出,读操作其实就是禁止内核的抢占调度,并没有使用一个锁对象。

  1. //读锁定 
  2. //include/linux/rcupdate.h 
  3. rcu_read_lock();            //preempt_disbale() 
  4. rcu_read_lock_bh();         //local_bh_disable() 
  5.  
  6. //读解锁 
  7. rcu_read_unlock()           //preempt_enable() 
  8. rcu_read_unlock_bh();       //local_bh_enable()  

同步

同步即是RCU写操作的***一个步骤-Update,下面这个接口会则色写执行单元,直到所有的读执行单元已经完成读执行单元临界区,写执行单元才可以继续下一步操作。如果有多个RCU写执行单元调用该函数,他们将在一个grace period(即所有的读执行单元已经完成对临界区的访问)之后全部被唤醒。

  1. synchrosize_rcu() 

挂起回调

下面这个接口也由RCU写执行单元调用,它不会使写执行单元阻塞,因而可以在中断上下文或软中断中使用,该函数把func挂接到RCU回调函数链上,然后立即返回。函数sychrosize_rcu()其实也会调用call_rcu()。

  1. void call_rcu(struct rcu_head *head,void (*func)(struct rcu_head *rcu)); 

下面这个接口会将软中断的完成也当作经历一个quiecent state(静默状态),因此如果写执行单元调用了该函数,在进程上下文的读执行单元必须使用rcu_read_lock_bh();

  1. void call_rcu_bh(struct rcu_head *head,void (*func)(struct rcu_head *rcu)); 

RCU机制被大量的运用在内核链表的读写中,下面这些就是内核中使用RCU机制保护的数据结构,函数的功能和非RCU版本一样,具体可以参考内核文件"include/linux/list.h",只不过这里的操作都会使用RCU保护起来。

  1. void list_add_rcu(struct list_head *new, struct list_head *head); 
  2. void list_add_tail_rcu(struct list_head *new,struct list_head *head); 
  3. void list_del_rcu(struct list_head *entry); 
  4. void list_replace_rcu(struct list_head *old,struct list_head *new); 
  5. list_for_each_rcu(pos,head); 
  6. list_for_each_safe_rcu(pos,n,head); 
  7. list_for_each_entry_rcu(pos,head,member); 
  8. void hlist_del_rcu(struct hlist_node *n); 
  9. void hlist_add_head_rcu(struct hlist_node *n, struct hlist_head *h); 
  10. list_for_each_rcu(pos,head); 
  11. hlist_for_each_entry_rcu(tpos,pos,head,member);  

信号量

自旋锁一节提过,如果一个CPU不能获取临界资源,就会造成"原地自旋",所以自旋锁保护的临界区的执行时间不能太长,但如果我们的确需要保护一段执行时间比较长的临界区呢?答案就是信号量

,信号量的底层依托于自旋锁来实现其原子性,并进一步将其提高到"进程"的维度,称为一种可以运行在进程上下文的"锁",正是这种能运行在进程上下文的能力赋予了信号量和自旋锁的诸多不同。

使用信号量,如果试图获取信号量的进程获取失败,内核就会将其调度为睡眠状态,执行其他进程,避免了CPU的忙等。不过,进程上下文的切换也是有成本的,所以通常,信号量在内核中都是只用于保护大块临界区。

此外,一个进程一旦无法获取期待的信号量就会进入睡眠,所以信号量保护的临界区可以有睡眠的代码。在这方面,自旋锁保护的区域是不能睡眠也不能执行schedule()的,因为一旦一个抢到了锁的CPU进行了进程上下文的切换或睡眠,那么其他等待这个自旋锁的CPU就会一直在那忙等,就永远无法等到这个锁,,形成死锁,除非有其他进程将其唤醒(通常都不会有)。

也正是由于信号量操作可能引起阻塞,所以信号量不能用于中断上下文。总结一下刚才罗嗦这一段:

 

项目 信号量 自旋锁
临界区时间 进程切换时间更短 临界区执行时间更短
进程上下文 临界区可以睡眠或调度 临界区不可以睡眠或调度
中断上下文 只有down_trylock()可以 可以

传统信号量

内核的信号量和应用层的信号量的使用方式类似,但没有获取信号量这一步骤,因为内核中中的信号量可以映射到所有调用这个模块的用户进程的内核空间。这些用户进程也就直接共享了一个信号量,所以也就没有获取信号量一说,相关的内容我在"Linux IPC System V 信号量"一文中有所讨论。

和应用层的信号量一样,内核信号量也是用于对临界资源的互斥/顺序访问,同样,虽然在使用信号量的时候我们可以初始化为任意值,但实际操作上我们通常只初始化为1或0,下述是Linux内核提供的信号量API。

  1. //include/linux/semaphore.h 
  2. //定义并初始化semaphore对象 
  3.  
  4. struct semphore sem;//初始化信号量 
  5.  
  6. void sem_init(struct semaphore * sem,int val); 
  7. init_MUTEX(sem); 
  8. init_MUTEX_LOCKED(sem); 
  9. DECLARE_MUTEX(sem); 
  10. DECLARE_MUTEX_LOCKED(sem);//P操作 
  11. //down()会导致睡眠,不能用于中断上下文 
  12.  
  13. void down(struct semaphore *sem); 
  14. //down_interruptible同样会进入休眠,但能被打断 
  15.  
  16. int down_interruptible(struct semaphore *sem); 
  17. //down_trylock不能获得锁时会立即返回,不会睡眠,可以用在中断上下文 
  18.  
  19. int down_trylock(struct semaphore *sem);//V操作 
  20.  
  21. void up(struct semaphore *sem);  

读写信号量

读写信号量与信号量的关系 和 读写自旋锁与自旋锁的关系类似,他们的互斥逻辑都是一样的,这里不再赘述

  1. //定义并初始化读写信号量 
  2.  
  3. struct rw_semaphore my_rwsem; 
  4. void init_rwsem(struct rw_semaphore *sem);//P读信号量 
  5.  
  6. void down_read(struct rw_semaphore *sem); 
  7. int down_read_trylock(struct rw_semaphore *sem);//V读信号量 
  8.  
  9. void up_read(struct rw_semaphore *sem);//P写信号量 
  10.  
  11. void down_write(struct rw_semaphore *sem); 
  12. int down_write_trylock(struct rw_semaphore *sem);//V写信号量 
  13.  
  14. void up_write(struct rw_semaphore *sem); 

模板

  1. struct rw_semaphore my_rwsem; 
  2. void init_rwsem(&my_rwsem);//读前获取读信号量 
  3.  
  4. down_read(&my_rwsem);   //若要非阻塞: 
  5. down_read_trylock(&my_rwsem);/* 读临界区 */ 
  6. //读完释放读信号量 
  7.  
  8. up_read(&my_rwsem);  
  9.  
  10. //写前获取写信号量 
  11.  
  12. down_write(&my_rwsem); 
  13.   //若要非阻塞: 
  14. down_write_trylock(&my_rwsem); /* 写临界区 */ 
  15. //写完释放写信号量 
  16.  
  17. up_write(&my_rwsem);   

完成量

完成量用于一个执行单元等待另一个执行单元执行完某事,和传统信号量一样,主要是用来实现队临界区的顺序/互斥访问。但是完成量还提供一种唤醒一个或唤醒所有等待进程的接口,有点类似与应用层的条件变量。

  1. //定义并初始化完成量 
  2.  
  3. struct completion my_completion; 
  4. init_completion(&my_completion);//或 
  5.  
  6. DECLARE_COMPLETION(my_completion)//等待 
  7. completionvoid wait_for_completion(struct completion *c);//唤醒 
  8. completionvoid complete(struct completion *c); //只唤醒一个等待的执行单元 
  9. void complete_all(struct completion *c); //释放所有等待该完成量的执行单元  

互斥体

除了信号量,Linux内核还提供了一种专门用于实现互斥的机制-互斥体,相关的内核API如下: 

  1. //include/linux/mutex.h 
  2. //定义并初始化mutex对象 
  3.  
  4. struct mutex my_mutex; 
  5. mutex_init(&my_mutex);//获取 
  6. mutexvoid mutex_lock(struct mutex *lock); 
  7. int mutex_trylock(struct mutex *lock); 
  8. int mutex_lock_interruptible(struct mutex *lock);//释放 
  9. mutexvoid mutex_unlock(struct mutex *lock);  
责任编辑:庞桂玉 来源: 嵌入式Linux中文站
相关推荐

2017-11-06 17:16:55

Linux设备驱动并发控制

2017-03-01 14:46:53

Linux驱动技术异步通知技术

2024-08-26 13:23:26

2017-03-01 10:45:39

Linux驱动技术内存申请

2017-03-01 13:06:39

Linux驱动技术DMA编程

2024-06-04 07:47:45

控制并发限流

2023-09-26 10:30:57

Linux编程

2017-03-01 12:36:15

Linux驱动技术内存

2012-09-29 09:00:25

2017-03-01 16:40:12

Linux驱动技术设备阻塞

2016-08-27 18:14:46

容器

2023-10-09 07:29:35

算法音乐驱动数字人

2013-07-12 10:24:46

IBM2013技术峰

2022-12-01 16:53:27

NPM技巧

2009-11-04 14:30:22

2017-11-02 12:57:38

SDNIT数字技术

2017-02-28 17:18:34

Linux驱动技术内核定时器

2023-10-18 15:19:56

2023-04-20 12:07:08

智能建筑网络

2022-03-31 17:38:09

高并发系统架构设计负载均衡
点赞
收藏

51CTO技术栈公众号