Linux 工作队列 workqueue 是什么鬼?

系统 Linux
这篇文章,我们就通过实际的代码操作,来演示一下工作队列(workqueue)的使用方式。

 

目录

  • 工作队列是什么
  •  驱动程序
  •  编译、测试

别人的经验,我们的阶梯!

Linux中断处理可用下图总结:

图中描述了中断处理中的下半部分都有哪些机制,以及如何根据实际的业务场景、限制条件来进行选择。

可以看出:这些不同的实现之间,有些是重复的,或者是相互取代的关系。

也正因为此,它们之间的使用方式几乎是大同小异,至少是在API接口函数的使用方式上,从使用这的角度来看,都是非常类似的。

这篇文章,我们就通过实际的代码操作,来演示一下工作队列(workqueue)的使用方式。

工作队列是什么

工作队列是Linux操作系统中,进行中断下半部分处理的重要方式!

从名称上可以猜到:一个工作队列就好像业务层常用的消息队列一样,里面存放着很多的工作项等待着被处理。

工作队列中有两个重要的结构体:工作队列(workqueue_struct) 和 工作项(work_struct): 

  1. struct workqueue_struct {  
  2.     struct list_head        pwqs;           /* WR: all pwqs of this wq */  
  3.     struct list_head        list;           /* PR: list of all workqueues */  
  4.     ...  
  5.     char                    name[WQ_NAME_LEN]; /* I: workqueue name */  
  6.     ...  
  7.     /* hot fields used during command issue, aligned to cacheline */  
  8.     unsigned int            flags ____cacheline_aligned; /* WQ: WQ_* flags */  
  9.     struct pool_workqueue __percpu *cpu_pwqs; /* I: per-cpu pwqs */  
  10.     struct pool_workqueue __rcu *numa_pwq_tbl[]; /* PWR: unbound pwqs indexed by node */  
  11. };  
  1. struct work_struct {  
  2.         atomic_long_t data;  
  3.         struct list_head entry;  
  4.         work_func_t func;   // 指向处理函数  
  5. #ifdef CONFIG_LOCKDEP                                                                                   
  6.          struct lockdep_map lockdep_map;  
  7. #endif  
  8. }; 

在内核中,工作队列中的所有工作项,是通过链表串在一起的,并且等待着操作系统中的某个线程挨个取出来处理。

这些线程,可以是由驱动程序通过 kthread_create 创建的线程,也可以是由操作系统预先就创建好的线程。

这里就涉及到一个取舍的问题了。

如果我们的处理函数很简单,那么就没有必要创建一个单独的线程来处理了。

原因有二:

  1.   创建一个内核线程是很耗费资源的,如果函数很简单,很快执行结束之后再关闭线程,太划不来了,得不偿失;
  2.   如果每一个驱动程序编写者都毫无节制地创建内核线程,那么内核中将会存在大量不必要的线程,当然了本质上还是系统资源消耗和执行效率的问题;

为了避免这种情况,于是操作系统就为我们预先创建好一些工作队列和内核线程。

我们只需要把需要处理的工作项,直接添加到这些预先创建好的工作队列中就可以了,它们就会被相应的内核线程取出来处理。

例如下面这些工作队列,就是内核默认创建的(include/linux/workqueue.h): 

  1. /*  
  2.  * System-wide workqueues which are always present.  
  3.  *  
  4.  * system_wq is the one used by schedule[_delayed]_work[_on]().  
  5.  * Multi-CPU multi-threaded.  There are users which expect relatively  
  6.  * short queue flush time.  Don't queue works which can run for too  
  7.  * long.  
  8.  *  
  9.  * system_highpri_wq is similar to system_wq but for work items which  
  10.  * require WQ_HIGHPRI.  
  11.  *  
  12.  * system_long_wq is similar to system_wq but may host long running  
  13.  * works.  Queue flushing might take relatively long.  
  14.  *  
  15.  * system_unbound_wq is unbound workqueue.  Workers are not bound to  
  16.  * any specific CPU, not concurrency managed, and all queued works are  
  17.  * executed immediately as long as max_active limit is not reached and  
  18.  * resources are available.  
  19.  *  
  20.  * system_freezable_wq is equivalent to system_wq except that it's  
  21.  * freezable.  
  22.  *  
  23.  * *_power_efficient_wq are inclined towards saving power and converted  
  24.  * into WQ_UNBOUND variants if 'wq_power_efficient' is enabled; otherwise,  
  25.  * they are same as their non-power-efficient counterparts - e.g.  
  26.  * system_power_efficient_wq is identical to system_wq if  
  27.  * 'wq_power_efficient' is disabled.  See WQ_POWER_EFFICIENT for more info.  
  28.  */  
  29. extern struct workqueue_struct *system_wq;  
  30. extern struct workqueue_struct *system_highpri_wq;  
  31. extern struct workqueue_struct *system_long_wq;  
  32. extern struct workqueue_struct *system_unbound_wq;  
  33. extern struct workqueue_struct *system_freezable_wq;  
  34. extern struct workqueue_struct *system_power_efficient_wq;  
  35. extern struct workqueue_struct *system_freezable_power_efficient_wq; 

以上这些默认工作队列的创建代码是(kernel/workqueue.c): 

  1. int __init workqueue_init_early(void)  
  2.  
  3.     ...      
  4.     system_wq = alloc_workqueue("events", 0, 0);  
  5.     system_highpri_wq = alloc_workqueue("events_highpri", WQ_HIGHPRI, 0);                        
  6.     system_long_wq = alloc_workqueue("events_long", 0, 0);  
  7.     system_unbound_wq = alloc_workqueue("events_unbound", WQ_UNBOUND,  
  8.                                             WQ_UNBOUND_MAX_ACTIVE);  
  9.     system_freezable_wq = alloc_workqueue("events_freezable",  
  10.                                               WQ_FREEZABLE, 0);  
  11.     system_power_efficient_wq = alloc_workqueue("events_power_efficient",  
  12.                                               WQ_POWER_EFFICIENT, 0);  
  13.     system_freezable_power_efficient_wq = alloc_workqueue("events_freezable_power_efficient",  
  14.                                               WQ_FREEZABLE | WQ_POWER_EFFICIENT,  
  15.                                               0);  
  16.     ... 
  17.  

此外,由于工作队列 system_wq 被使用的频率很高,于是内核就封装了一个简单的函数(schedule_work)给我们使用: 

  1. /**  
  2.  * schedule_work - put work task in global workqueue  
  3.  * @work: job to be done  
  4.  *  
  5.  * Returns %false if @work was already on the kernel-global workqueue and  
  6.  * %true otherwise.  
  7.  *  
  8.  * This puts a job in the kernel-global workqueue if it was not already  
  9.  * queued and leaves it in the same position on the kernel-global  
  10.  * workqueue otherwise. 
  11.  */  
  12. static inline bool schedule_work(struct work_struct *work){     
  13.     return queue_work(system_wq, work);  

当然了,任何事情有利就有弊!

由于内核默认创建的工作队列,是被所有的驱动程序共享的。

如果所有的驱动程序都把等待处理的工作项委托给它们来处理,那么就会导致某个工作队列中过于拥挤。

根据先来后到的原则,工作队列中后加入的工作项,就可能因为前面工作项的处理函数执行的时间太长,从而导致时效性无法保证。

因此,这里存在一个系统平衡的问题。

关于工作队列的基本知识点就介绍到这里,下面来实际操作验证一下。

驱动程序

之前的几篇文章,在驱动程序中测试中断处理的操作流程都是一样的,因此这里就不在操作流程上进行赘述了。

这里直接给出驱动程序的全貌代码,然后查看 dmesg 的输出信息。

创建驱动程序源文件和 Makefile: 

  1. $ cd tmp/linux-4.15/drivers  
  2. $ mkdir my_driver_interrupt_wq  
  3. $ touch my_driver_interrupt_wq.c  
  4. $ touch Makefile 

示例代码全貌

测试场景是:加载驱动模块之后,如果监测到键盘上的ESC键被按下,那么就往内核默认的工作队列system_wq中增加一个工作项,然后观察该工作项对应的处理函数是否被调用。 

  1. #include <linux/kernel.h>  
  2. #include <linux/module.h>  
  3. #include <linux/interrupt.h>  
  4. static int irq;            
  5. static char * devname;     
  6. static struct work_struct mywork;                
  7.   // 接收驱动模块加载时传入的参数  
  8. module_param(irq, int, 0644);  
  9. module_param(devname, charp, 0644);  
  10. // 定义驱动程序的 ID,在中断处理函数中用来判断是否需要处理           
  11.  #define MY_DEV_ID           1226  
  12. // 驱动程序数据结构  
  13. struct myirq  
  14.  
  15.     int devid;  
  16. };  
  17.  struct myirq mydev  ={ MY_DEV_ID };  
  18. #define KBD_DATA_REG        0x60    
  19. #define KBD_STATUS_REG      0x64  
  20. #define KBD_SCANCODE_MASK   0x7f  
  21. #define KBD_STATUS_MASK     0x80  
  22. // 工作项绑定的处理函数  
  23. static void mywork_handler(struct work_struct *work)  
  24.  
  25.     printk("mywork_handler is called. \n");  
  26.     // do some other things  
  27. }         
  28. //中断处理函数  
  29. static irqreturn_t myirq_handler(int irq, void * dev)  
  30.  
  31.     struct myirq mydev;  
  32.     unsigned char key_code;  
  33.     mydev = *(struct myirq*)dev;       
  34.      // 检查设备 id,只有当相等的时候才需要处理  
  35.     if (MY_DEV_ID == mydev.devid)  
  36.     {  
  37.         // 读取键盘扫描码  
  38.         key_code = inb(KBD_DATA_REG);    
  39.         if (key_code == 0x01)  
  40.         { 
  41.              printk("ESC key is pressed! \n");         
  42.              // 初始化工作项 
  43.             INIT_WORK(&mywork, mywork_handler);        
  44.              // 加入到工作队列 system_wq  
  45.                     schedule_work(&mywork);  
  46.         }  
  47.     }     
  48.     return IRQ_HANDLED;  
  49. }   
  50. // 驱动模块初始化函数  
  51. static int __init myirq_init(void)  
  52.  
  53.     printk("myirq_init is called. \n");  
  54.     // 注册中断处理函数  
  55.     if(request_irq(irq, myirq_handler, IRQF_SHARED, devname, &mydev)!=0)  
  56.     {  
  57.         printk("register irq[%d] handler failed. \n", irq);  
  58.         return -1;  
  59.     }  
  60.     printk("register irq[%d] handler success. \n", irq);  
  61.     return 0;  
  62. }   
  63. // 驱动模块退出函数  
  64. static void __exit myirq_exit(void)  
  65.  
  66.     printk("myirq_exit is called. \n");  
  67.     // 释放中断处理函数  
  68.     free_irq(irq, &mydev);  
  69. }   
  70. MODULE_LICENSE("GPL");  
  71. module_init(myirq_init);  
  72. module_exit(myirq_exit); 

Makefile 文件 

  1. ifneq ($(KERNELRELEASE),)  
  2.     obj-m :my_driver_interrupt_wq.o  
  3. else  
  4.     KERNELDIR ?= /lib/modules/$(shell uname -r)/build  
  5.     PWD := $(shell pwd)  
  6. default:  
  7.     $(MAKE) -C $(KERNELDIR) M=$(PWD) modules  
  8. clean:  
  9.     $(MAKE) -C $(KERNEL_PATH) M=$(PWD) clean  
  10. endif 

编译、测试 

  1. $ make  
  2. $ sudo insmod my_driver_interrupt_wq.ko irq=1 devname=mydev  

检查驱动模块是否加载成功: 

  1. $ lsmod | grep my_driver_interrupt_wq  
  2. my_driver_interrupt_wq    16384  0 

再看一下 dmesg 的输出信息: 

  1. $ dmesg  
  2. ...  
  3. [  188.247636] myirq_init is called.   
  4. [  188.247642] register irq[1] handler success. 

说明:驱动程序的初始化函数 myirq_init 被调用了,并且成功注册了 1 号中断的处理程序。

此时,按一下键盘上的 ESC 键。

操作系统在捕获到键盘中断之后,会依次调用此中断的所有中断处理程序,其中就包括我们注册的 myirq_handler 函数。

在这个函数中,当判断出是ESC按键时,就初始化一个工作项(把结构体 work_struct 类型的变量与一个处理函数绑定起来),然后丢给操作系统预先创建好的工作队列(system_wq)去处理,如下所示: 

  1. if (key_code == 0x01)  
  2.  
  3.     printk("ESC key is pressed! \n");  
  4.     INIT_WORK(&mywork, mywork_handler);  
  5.     schedule_work(&mywork);  

因此,当相应的内核线程从这个工作队列(system_wq)中取出工作项(mywork)来处理的时候,函数 mywork_handler 就会被调用。

现在来看一下 dmesg 的输出信息: 

  1. [  305.053155] ESC key is pressed!   
  2. [  305.053177] mywork_handler is called. 

可以看到:mywork_handler函数被正确调用了。

完美! 

 

责任编辑:庞桂玉 来源: 良许Linux
相关推荐

2021-12-27 07:55:59

Linux 中断处理Linux 系统

2015-03-27 13:04:20

Beanstalkd工

2011-06-20 06:14:15

ibmdwLinux

2015-11-12 10:03:34

前端H5web

2021-11-10 12:13:02

HostonlyCookie浏览器

2017-04-03 15:35:13

知识体系架构

2020-09-27 06:53:57

MavenCDNwrapper

2015-03-17 10:13:52

HTML5什么鬼

2019-10-30 10:13:15

区块链技术支付宝

2021-07-06 10:17:07

Python LaunLinuxWindows

2020-11-04 13:01:38

FastThreadLocalJDK

2015-09-29 09:47:14

2019-01-07 12:40:19

2015-09-22 09:25:16

RTORPO灾备技术

2022-09-07 08:41:57

SpringIstio分布式

2021-01-07 05:22:47

MySQL字段存储

2019-01-17 14:35:01

2015-07-16 10:49:31

虚拟化容器技术

2018-01-16 08:47:23

2016-10-21 09:58:19

WindowsKMSOEM系统
点赞
收藏

51CTO技术栈公众号