利用 Python 实现多任务进程

开发 后端
正在执行的程序,由程序、数据和进程控制块组成,是正在执行的程序,程序的一次执行过程,是资源调度的基本单位。

[[428503]]

本文转载自微信公众号「杰哥的IT之旅」,作者阿拉斯加 。转载本文请联系杰哥的IT之旅公众号。

一、进程介绍

进程:正在执行的程序,由程序、数据和进程控制块组成,是正在执行的程序,程序的一次执行过程,是资源调度的基本单位。

程序:没有执行的代码,是一个静态的。

二、线程和进程之间的对比

由图可知:此时电脑有 9 个应用进程,但是一个进程又会对应于多个线程,可以得出结论:

进程:能够完成多任务,一台电脑上可以同时运行多个 QQ

线程:能够完成多任务,一个 QQ 中的多个聊天窗口

根本区别:进程是操作系统资源分配的基本单位,而线程是任务调度和执行的基本单位.

使用多进程的优势:

1、拥有独立GIL:

首先由于进程中 GIL 的存在,Python 中的多线程并不能很好地发挥多核优势,一个进程中的多个线程,在同 一时刻只能有一个线程运行。而对于多进程来说,每个进程都有属于自己的 GIL,所以,在多核处理器下,多进程的运行是不会受 GIL的影响的。因此,多进 程能更好地发挥多核的优势。

2、效率高

当然,对于爬虫这种 IO 密集型任务来说,多线程和多进程影响差别并不大。对于计算密集型任务来说,Python 的多进程相比多线 程,其多核运行效率会有成倍的提升。

三、Python 实现多进程

我们先用一个实例来感受一下:

1、使用 process 类

  1. import multiprocessing  
  2. def process(index):  
  3.     print(f'Process: {index}')  
  4. if __name__ == '__main__':  
  5.     for i in range(5):  
  6.         p = multiprocessing.Process(target=process, args=(i,))  
  7.         p.start()  

这是一个实现多进程最基础的方式:通过创建 Process 来新建一个子进程,其中 target 参数传入方法名,args 是方法的参数,是以 元组的形式传入,其和被调用的方法 process 的参数是一一对应的。

注意:这里 args 必须要是一个元组,如果只有一个参数,那也要在元组第一个元素后面加一个逗号,如果没有逗号则 和单个元素本身没有区别,无法构成元组,导致参数传递出现问题。创建完进程之后,我们通过调用 start 方法即可启动进程了。

运行结果如下:

  1. Process: 0  
  2. Process: 1  
  3. Process: 2  
  4. Process: 3  
  5. Process: 4  

可以看到,我们运行了 5 个子进程,每个进程都调用了 process 方法。process 方法的 index 参数通过 Process 的 args 传入,分别是 0~4 这 5 个序号,最后打印出来,5 个子进程运行结束。

2、继承 process 类

  1. from multiprocessing import Process 
  2. import time 
  3.  
  4. class MyProcess(Process): 
  5.     def __init__(self,loop): 
  6.         Process.__init__(self) 
  7.         self.loop = loop 
  8.  
  9.  
  10.     def run(self): 
  11.         for count in range(self.loop): 
  12.             time.sleep(1) 
  13.             print(f'Pid:{self.pid} LoopCount: {count}'
  14. if __name__ == '__main__'
  15.     for i in range(2,5): 
  16.         p = MyProcess(i) 
  17.         p.start() 

我们首先声明了一个构造方法,这个方法接收一个 loop 参数,代表循环次数,并将其设置为全局变量。在 run方法中,又使用这 个 loop 变量循环了 loop 次并打印了当前的进程号和循环次数。

在调用时,我们用 range 方法得到了 2、3、4 三个数字,并把它们分别初始化了 MyProcess 进程,然后调用 start 方法将进程启动起 来。

注意:这里进程的执行逻辑需要在 run 方法中实现,启动进程需要调用 start 方法,调用之后 run 方法便会执行。

运行结果如下:

  1. Pid:12976 LoopCount: 0 
  2. Pid:15012 LoopCount: 0 
  3. Pid:11976 LoopCount: 0 
  4. Pid:12976 LoopCount: 1 
  5. Pid:15012 LoopCount: 1 
  6. Pid:11976 LoopCount: 1 
  7. Pid:15012 LoopCount: 2 
  8. Pid:11976 LoopCount: 2 
  9. Pid:11976 LoopCount: 3 

注意,这里的进程 pid 代表进程号,不同机器、不同时刻运行结果可能不同。

四、进程之间的通信

1、Queue-队列 先进先出

  1. from multiprocessing import Queue 
  2. import multiprocessing 
  3.  
  4. def download(p): # 下载数据 
  5.     lst = [11,22,33,44] 
  6.     for item in lst: 
  7.         p.put(item) 
  8.     print('数据已经下载成功....'
  9.  
  10.  
  11. def savedata(p): 
  12.     lst = [] 
  13.     while True
  14.         data = p.get() 
  15.         lst.append(data) 
  16.         if p.empty(): 
  17.             break 
  18.     print(lst) 
  19.  
  20. def main(): 
  21.     p1 = Queue() 
  22.  
  23.     t1 = multiprocessing.Process(target=download,args=(p1,)) 
  24.     t2 = multiprocessing.Process(target=savedata,args=(p1,)) 
  25.  
  26.     t1.start() 
  27.     t2.start() 
  28.  
  29.  
  30. if __name__ == '__main__'
  31.     main() 
  32. 数据已经下载成功.... 
  33. [11, 22, 33, 44] 

2、共享全局变量不适用于多进程编程

  1. import multiprocessing 
  2.  
  3. a = 1 
  4.  
  5.  
  6. def demo1(): 
  7.     global a 
  8.     a += 1 
  9.  
  10.  
  11. def demo2(): 
  12.     print(a) 
  13.  
  14. def main(): 
  15.     t1 = multiprocessing.Process(target=demo1) 
  16.     t2 = multiprocessing.Process(target=demo2) 
  17.  
  18.     t1.start() 
  19.     t2.start() 
  20.  
  21. if __name__ == '__main__'
  22.     main() 

运行结果:

有结果可知:全局变量不共享;

五、进程池之间的通信

1、进程池引入

当需要创建的子进程数量不多时,可以直接利用 multiprocessing 中的 Process 动态生成多个进程,但是如果是上百甚至上千个目标,手动的去创建的进程的工作量巨大,此时就可以用到 multiprocessing 模块提供的 Pool 方法。

  1. from multiprocessing import Pool 
  2. import os,time,random 
  3.  
  4. def worker(a): 
  5.     t_start = time.time() 
  6.     print('%s开始执行,进程号为%d'%(a,os.getpid())) 
  7.  
  8.     time.sleep(random.random()*2) 
  9.     t_stop = time.time() 
  10.     print(a,"执行完成,耗时%0.2f"%(t_stop-t_start)) 
  11.  
  12.  
  13. if __name__ == '__main__'
  14.     po = Pool(3)        # 定义一个进程池 
  15.     for i in range(0,10): 
  16.         po.apply_async(worker,(i,))    # 向进程池中添加worker的任务 
  17.  
  18.     print("--start--"
  19.     po.close()       
  20.  
  21.     po.join()        
  22.     print("--end--"

运行结果:

  1. --start-- 
  2. 0开始执行,进程号为6664 
  3. 1开始执行,进程号为4772 
  4. 2开始执行,进程号为13256 
  5. 0 执行完成,耗时0.18 
  6. 3开始执行,进程号为6664 
  7. 2 执行完成,耗时0.16 
  8. 4开始执行,进程号为13256 
  9. 1 执行完成,耗时0.67 
  10. 5开始执行,进程号为4772 
  11. 4 执行完成,耗时0.87 
  12. 6开始执行,进程号为13256 
  13. 3 执行完成,耗时1.59 
  14. 7开始执行,进程号为6664 
  15. 5 执行完成,耗时1.15 
  16. 8开始执行,进程号为4772 
  17. 7 执行完成,耗时0.40 
  18. 9开始执行,进程号为6664 
  19. 6 执行完成,耗时1.80 
  20. 8 执行完成,耗时1.49 
  21. 9 执行完成,耗时1.36 
  22. --end-- 

一个进程池只能容纳 3 个进程,执行完成才能添加新的任务,在不断的打开与释放的过程中循环往复。

六、案例:文件批量复制

操作思路:

  • 获取要复制文件夹的名字
  • 创建一个新的文件夹
  • 获取文件夹里面所有待复制的文件名
  • 创建进程池
  • 向进程池添加任务

代码如下:

导包

  1. import multiprocessing 
  2. import os 
  3. import time 

定制文件复制函数

  1. def copy_file(Q,oldfolderName,newfolderName,file_name): 
  2.     # 文件复制,不需要返回 
  3.     time.sleep(0.5) 
  4.     # print('\r从%s文件夹复制到%s文件夹的%s文件'%(oldfolderName,newfolderName,file_name),end=''
  5.  
  6.     old_file = open(oldfolderName + '/' + file_name,'rb') # 待复制文件 
  7.     content = old_file.read() 
  8.     old_file.close() 
  9.  
  10.     new_file = open(newfolderName + '/' + file_name,'wb') # 复制出的新文件 
  11.     new_file.write(content) 
  12.     new_file.close() 
  13.  
  14.     Q.put(file_name) # 向Q队列中添加文件 

定义主函数

  1. def main(): 
  2.     oldfolderName = input('请输入要复制的文件夹名字:') # 步骤1获取要复制文件夹的名字(可以手动创建,也可以通过代码创建,这里我们手动创建) 
  3.     newfolderName = oldfolderName + '复件' 
  4.     # 步骤二 创建一个新的文件夹 
  5.     if not os.path.exists(newfolderName): 
  6.         os.mkdir(newfolderName) 
  7.  
  8.     filenames = os.listdir(oldfolderName) # 3.获取文件夹里面所有待复制的文件名 
  9.     # print(filenames) 
  10.  
  11.     pool = multiprocessing.Pool(5) # 4.创建进程池 
  12.  
  13.     Q = multiprocessing.Manager().Queue() # 创建队列,进行通信 
  14.     for file_name in filenames: 
  15.         pool.apply_async(copy_file,args=(Q,oldfolderName,newfolderName,file_name)) # 5.向进程池添加任务 
  16.       po.close() 
  17.  
  18.     copy_file_num = 0 
  19.     file_count = len(filenames) 
  20.     # 不知道什么时候完成,所以定义一个死循环 
  21.     while True
  22.         file_name = Q.get() 
  23.         copy_file_num += 1 
  24.         time.sleep(0.2) 
  25.         print('\r拷贝进度%.2f %%'%(copy_file_num  * 100/file_count),end='') # 做一个拷贝进度条 
  26.  
  27.         if copy_file_num >= file_count: 
  28.             break 

程序运行

  1. if __name__ == '__main__'
  2.     main() 

运行结果如下图所示:

运行前后文件目录结构对比

运行前

运行后

 

以上内容就是整体大致结果了,由于 test 里面是随便粘贴的测试文件,这里就不展开演示了。

 

责任编辑:武晓燕 来源: 杰哥的IT之旅
相关推荐

2010-02-26 17:47:07

2014-05-09 12:59:26

iOS移动互联网

2013-08-13 14:39:29

多任务下载

2011-09-06 17:47:21

浏览器单窗口多任务

2011-07-18 14:23:40

iPhone 多任务

2022-09-28 15:34:06

机器学习语音识别Pytorch

2015-06-17 10:41:50

2011-05-31 13:29:40

Android 多线程

2023-11-07 07:13:31

推荐系统多任务学习

2010-10-29 09:01:01

Windows Pho

2009-07-17 17:29:13

多任务多线程

2012-05-18 13:26:11

HTC

2013-12-12 16:44:25

Lua协程

2024-04-03 07:56:50

推荐系统多任务推荐

2018-02-25 17:23:20

用户搜索日志商品标题压缩

2012-07-13 13:42:40

2009-07-02 13:29:38

JSP技术

2023-11-29 07:25:58

2014-06-18 10:41:31

Android多任务机制

2015-07-14 16:15:22

点赞
收藏

51CTO技术栈公众号