加速函数,每个Python程序员都应该了解标准库的Lru_cache

开发 后端
Python标准库附带了许多鲜为人知但功能强大的软件包。对于本示例,将使用functools中的lru_cache。(LRU代表“最近最少使用(Least Recently Used)”,正如字面意思,这明确意味着缓存将保留最近的输入/结果对。)

加速新境界:通过使用简单的缓存功能,仅需一行代码即可加速你的函数。

不久前,我构建了一个日常运行的ETL管道,其通过从外部服务中抽取数据来丰富输入数据,然后将结果加载到数据库中。

随着输入数据的增加,等待外部服务器的响应变得非常费时,这使得ETL进程越来越慢。经过一番调查,我发现与总记录数(~500k)相比,并没有太多不同的输入值(~500)。

因此,换句话说,使用相同的参数调用外部服务时,每个参数大约要重复执行1000次。

像这样的情况是使用缓存的主要用例。缓存一个函数意味着无论何时首次计算函数的返回值,都会将其输入和结果放在字典中。

对于每个后续函数调用,首先通过查看缓存来检查结果是否已经计算过。如果在缓存中找到了,那就很完美,不需要再次计算!如果没有找到,就计算结果并将输入和结果存储在缓存中,以便下一个函数调用时查找到它。

Python标准库附带了许多鲜为人知但功能强大的软件包。对于本示例,将使用functools中的lru_cache。(LRU代表“最近最少使用(Least Recently Used)”,正如字面意思,这明确意味着缓存将保留最近的输入/结果对。)

从Fun(c)tools中导入lru_cache

把c放进括号中有点像一个蹩脚的笑话,因为这样functools就变成了fun tools(有趣的工具),使用缓存当然很有趣!

加速函数,每个Python程序员都应该了解标准库的Lru_cache

这里无需过多解释。导入lru_cache并用它来装饰一个函数,该函数将生成斐波那契数。

装饰函数意味着将该函数与缓存函数包装在一起,随后每当调用fib_cache函数时,都将调用缓存的函数。

比赛开始

加速函数,每个Python程序员都应该了解标准库的Lru_cache

我们进行了一个实验,计算函数的缓存和未缓存版本从0到40计算所有斐波那契数所花费的时间,并将结果放入各自的列表中。

获胜者

加速函数,每个Python程序员都应该了解标准库的Lru_cache

对于较小的斐波那契数,二者并没有什么大的区别,但是一旦达到约30个样本,缓存函数的效率增益就开始累加。

我没有耐心让未缓存的版本运行超过40个样本,因为它的运行时间是指数增长的。而对于缓存的版本,它的运行时间只是线性增量。

加速函数,每个Python程序员都应该了解标准库的Lru_cache

这就完成了!距离Python缓存仅一行代码之遥。毕竟它并没那么可怕。

在初始示例中,我在Pandas数据框上使用了数据转换。值得一提的是,缓存的函数可以传递给Pandas apply,而无需进行其它的任何更改。

是不是很棒?你也来试试吧~

责任编辑:赵宁宁 来源: 今日头条
相关推荐

2024-04-10 12:36:41

硬件代码

2012-02-28 10:52:13

2018-03-07 12:57:53

2013-03-20 17:58:41

虚拟内存程序员

2015-04-16 10:26:51

程序员 Python Ruby

2011-07-25 10:09:57

Python

2023-12-27 09:00:00

Python魔术方法开发

2021-10-20 06:05:01

编程语言开发

2021-10-18 10:21:28

程序员技能优化

2022-09-11 15:20:05

程序员命令开发

2012-10-11 10:32:48

Linux命令程序员

2023-01-31 15:43:47

2014-07-16 09:34:44

2022-10-31 08:02:07

Python函数式编程

2024-04-24 14:52:26

JavaScriptWeb 开发

2011-06-16 08:58:57

软考程序员

2020-09-03 12:54:37

Python程序员macOS

2017-04-05 12:04:17

python函数

2023-11-02 14:21:06

2017-04-07 10:40:48

程序员学习命令行
点赞
收藏

51CTO技术栈公众号