协程与多进程的完美结合

开发
协程与多进程的结合,每个进程里面多个协程同时运行,充分利用CPU的每一个核心,又充分利用了IO等待时间,把CPU跑满,把网络带宽跑满。强强联合,速度更快。

我们知道,协程本质上是单线程单进程,通过充分利用IO等待时间来实现高并发。在IO等待时间之外的代码,还是串行运行的。因此,如果协程非常多,多少每个协程内部的串行代码运行时间超过了IO请求的等待时间,那么它的并发就会有一个上限。

举个例子,电饭煲煮饭,洗衣机洗衣服,热水壶烧水,他们都是启动设备以后就能自己运行,我们可以利用他们自己运行的时间,让这三件事情看起来几乎在同时进行。但如果除了这三件事情外,还有开电视,开空调,发微信……等等几十个事情。每个事情单独拿出来确实都只需要做个开头,剩下的就是等,但由于做这个开头也需要时间,因此把他们全部启动起来也要不少时间,你的效率还是被卡住。

现在,如果有两个人一起来做这些事情,那情况就不一样了。一个人煮饭和烧水,另一个人开洗衣机,开电视和空调。效率进一步提升。

这就是协程与多进程的结合,每个进程里面多个协程同时运行,充分利用CPU的每一个核心,又充分利用了IO等待时间,把CPU跑满,把网络带宽跑满。强强联合,速度更快。

有一个第三方库aiomultiprocess,让你能用几行代码就实现多进程与协程的组合。

首先使用pip安装:

python3 -m pip install aiomultiprocess

它的语法非常简单:

from aiomultiprocess import Pool
async with Pool() as pool:
results = await pool.map(协程, 参数列表)

只需要3行代码,它就会在你CPU上每个核启动一个进程,每个进程中不停启动协程。

我们来写一段实际代码:

import asyncio
import httpx
from aiomultiprocess import Pool

async def get(url):
async with httpx.AsyncClient() as client:
resp = await client.get(url)
return resp.text


async def main():
urls = [url1, url2, url3]
async with Pool() as pool:
async for result in pool.map(get, urls):
print(result) # 每一个URL返回的内容

if __name__ == '__main__':
asyncio.run(main())

之前我写异步协程文章的时候,有些人同学会问我,爬虫的速度真的那么重要吗?难道不是突破反爬虫最重要吗?

我的回答是,不要看到用aiohttp请求网址就觉得是做爬虫。在微服务里面,自己请求自己的HTTP接口,也需要使用httpx或者aiohttp。在这样的场景里面,速度就是非常的重要,有时候就是需要做到越快越好。

责任编辑:赵宁宁 来源: 未闻Code
相关推荐

2020-04-07 11:10:30

Python数据线程

2023-05-10 07:47:08

Python并发编程

2021-09-16 09:59:13

PythonJavaScript代码

2023-10-12 09:46:00

并发模型线程

2023-11-17 11:36:59

协程纤程操作系统

2020-11-29 17:03:08

进程线程协程

2023-12-13 09:56:13

​多进程多线程协程

2022-12-30 07:50:05

无栈协程Linux

2009-06-04 10:44:34

StrutsHibernate配合

2017-08-10 15:50:44

PHP协程阻塞

2011-03-07 16:10:41

FireFTPFirefoxFTP

2022-05-17 09:19:17

XebianLinuxLinux 发行版

2020-08-04 10:56:09

进程线程协程

2010-04-29 10:32:14

虚拟技术上海世博会

2009-07-03 13:54:38

Java Servle

2021-03-17 11:29:24

物联网环境数据环境风险

2009-08-02 17:26:11

以太网电源以太网供电

2009-01-06 09:19:16

Google Andr华硕Eee PCGoogle 操作系统

2024-02-05 09:06:25

Python协程Asyncio库

2024-06-27 07:56:49

点赞
收藏

51CTO技术栈公众号