一文让你搞懂 Python 的生成器,以及我和一个奇葩之间的恩怨情仇

开发 前端
关于协程的更多细节,后续在介绍协程的时候再说,总之我们现在应该使用原生协程,至于 yield from 就让它留在历史的尘埃中吧,我们只需要知道整个演进过程即可。

楔子

本次来聊一聊 Python 的生成器,它是我们后续理解协程的基础(对不起,没有后续了)。生成器的话,估计大部分人在写程序的时候都不怎么用,但其实生成器一旦用好了,确实能给程序带来性能上的提升,那么下面就来看一看吧。

生成器的基础知识

我们知道,如果函数的内部出现了 yield 关键字,那么它就不再是普通的函数了,而是一个生成器函数,调用之后会返回一个生成器对象。

生成器对象一般用于处理循环结构,应用得当的话可以极大优化内存使用率。比如:我们读取一个大文件。

def read_file(file):
    return open(file, encoding="utf-8").readlines()

print(read_file("假装是大文件.txt"))
"""
['人生是什么?\n', '大概是闪闪发光的同时\n', '又让人感到痛苦的东西吧']
"""

这个版本的函数,直接将里面的内容全部读取出来了,返回了一个列表。如果文件非常大,那么内存的开销可想而知。于是我们可以通过 yield 关键字,将普通函数变成一个生成器函数。

from typing import Iterator, Generator

def read_file(file):
    with open(file, encoding="utf-8") as f:
        for line in f:
            yield line

data = read_file("假装是大文件.txt")
# 返回一个生成器对象
print(data)
"""
<generator object read_file at 0x0000019B4FA8BAC0>
"""

# 使用 for 循环遍历
for line in data:
    # 文件每一行自带换行符, 所以这里的 print 就不用换行符了
    print(line, end="")
"""
人生是什么?
大概是闪闪发光的同时
又让人感到痛苦的东西吧
"""

由于生成器是一种特殊的迭代器,所以也可以使用它的 __next__ 方法。

def gen():
    yield 123
    yield 456
    yield 789
    return "result"

# 调用生成器函数时,会创建一个生成器
# 生成器虽然创建了,但是里面的代码并没有执行
g = gen()

# 调用 __next__ 方法时才会执行
# 当遇到 yield,会将生成器暂停、并返回 yield 后面的值
print(g.__next__())  # 123

# 此时生成器处于暂停状态,如果我们不驱动它的话,它是不会前进的
# 再次执行 __next__,生成器恢复执行,并在下一个 yield 处暂停
print(g.__next__())  # 456

# 生成器会记住自己的执行进度,它总是在遇到 yield 时暂停
# 调用 __next__ 时恢复执行,直到遇见下一个 yield
print(g.__next__())  # 789

# 显然再调用 __next__ 时,已经找不到下一个 yield 了
# 那么生成器会抛出 StopIteration,并将返回值设置在里面
try:
    g.__next__()
except StopIteration as e:
    print(f"返回值:{e.value}")  # 返回值:result

可以看到,基于生成器,我们能够实现惰性求值。

当然啦,生成器不仅仅有 __next__ 方法,它还有 send 和 throw 方法,我们先来说一说 send。

def gen():
    res1 = yield "yield 1"
    print(f"***** {res1} *****")
    res2 = yield "yield 2"
    return res2

g = gen()
# 此时程序在第一个 yield 处暂停
print(g.__next__())
"""
yield 1
"""

# 调用 g.send(val) 依旧可以驱动生成器执行
# 同时还可以传递一个值,交给第一个 yield 左边的 res1
# 然后寻找第二个 yield
print(g.send("嘿嘿"))
"""
***** 嘿嘿 *****
yield 2
"""
# 上面输出了两行,第一行是生成器里面的 print 打印的

try:
    # 此时生成器在第二个 yield 处暂停,调用 g.send 驱动执行
    # 同时传递一个值交给第二个 yield 左边的 res2,然后寻找第三个 yield
    # 但是生成器里面没有第三个 yield 了,于是抛出 StopIteration
    g.send("蛤蛤")
except StopIteration as e:
    print(f"返回值:{e.value}")
"""
返回值:蛤蛤
"""

生成器永远在 yield 处暂停,并将 yield 后面的值返回。如果想驱动生成器继续执行,可以调用 __next__ 或 send,会去寻找下一个 yield,然后在下一个 yield 处暂停。依次往复,直到找不到 yield 时,抛出 StopIteration,并将返回值包在里面。

但是这两者的不同之处在于,send 可以接收参数,假设生成器在 res = yield 123 这里停下来了。

当调用 __next__ 和 send 的时候,都可以驱动执行,但调用 send 时可以传递一个 value,并将 value 赋值给变量 res。而 __next__ 没有这个功能,如果是调用 __next__ 的话,那么 res 得到的就是一个 None。

所以 res = yield 123 这一行语句需要两次驱动生成器才能完成,第一次驱动会让生成器执行到 yield 123,然后暂停执行,将 123 返回。第二次驱动才会给变量 res 赋值,此时会寻找下一个 yield 然后暂停。

生成器的预激

刚创建生成器的时候,里面的代码还没有执行,它的 f_lasti 是 -1。关于什么是 f_lasti,需要解释一下。

首先随着 CPython 版本的升级,一些数据结构的底层实现也在发生改变,比如栈帧等等。在之前的版本中,栈帧有一个字段叫 f_lasti,它表示最近一条执行完毕的字节码指令的偏移量。而在 3.12 里面,这个字段已经没了。

虽然解释器内部结构会发生变化,但暴露出来的 Python 接口是不变的,所以我们依旧可以访问该字段。

def gen():
    res1 = yield 123
    res2 = yield 456
    return "result"

g = gen()
# 生成器函数和普通函数一样,执行时也会创建栈帧
# 通过 g.gi_frame 可以很方便的获取
print(g.gi_frame.f_lasti)  # -1

f_lasti 是 -1,表示生成器刚被创建,还没有执行任何指令。而第一次驱动生成器执行,叫做生成器的预激。但在生成器还没有被预激时,我们调用 send,里面只能传递一个 None,否则报错。

def gen():
    res1 = yield 123
    res2 = yield 456
    return "result"

g = gen()
try:
    g.send("小云同学")
except TypeError as e:
    print(e)
"""
can't send non-None value to a just-started generator
"""

对于尚未被预激的生成器,我们只能传递一个 None,也就是 g.send(None)。或者调用 g.__next__(),因为不管何时它传递的都是 None。

其实也很好理解,我们之所以传值是为了赋给 yield 左边的变量,这就意味着生成器必须至少被驱动一次、在某个 yield 处停下来才可以。而未被预激的生成器,它里面的代码压根就没有执行,所以第一次驱动的时候只能传递一个 None 进去。

如果查看生成器的源代码的话,也能证明这一点:

图片图片

在之前的版本中,判断条件是 f_lasti 是否等于 -1,而在 3.12 中引入了 gi_frame_state 字段,表示生成器的状态。如果生成器刚创建,并且接收的参数 arg 不为 None,那么报错。

那么生成器的状态都有哪些呢?

// Include/internal/pycore_frame.h
typedef enum _framestate {
    FRAME_CREATED = -2,
    FRAME_SUSPENDED = -1,
    FRAME_EXECUTING = 0,
    FRAME_COMPLETED = 1,
    FRAME_CLEARED = 4
} PyFrameState;

状态总共有五种。

  • FRAME_CREATED:生成器刚创建。
  • FRAME_SUSPENDED:生成器被挂起,也就是执行到某个 yield 之后返回了。
  • FRAME_EXECUTING:生成器执行中。
  • FRAME_COMPLETED:生成器执行完毕,但栈帧对象还未被清理。
  • FRAME_CLEARED:生成器的栈帧对象被清理。

相关源码细节下一篇文章(对不起,没有下一篇了)会分析。

生成器的 throw 方法

除了 __next__ 和 send 方法之外,生成器还有一个 throw 方法,该方法的作用和前两者类似,也是驱动生成器执行,并在下一个 yield 处暂停。但它在调用的时候,需要传递一个异常进去。

def gen():
    try:
        yield 123
    except ValueError as e:
        print(f"异常:{e}")
    yield 456
    return "result"

g = gen()
# 生成器在 yield 123 处暂停
g.__next__()
# 向生成器传递一个异常
# 如果当前生成器的暂停位置处无法捕获传递的异常,那么会将异常抛出来
# 如果能够捕获,那么会驱动生成器执行,并在下一个 yield 处暂停
# 当前生成器位于 yield 123 处,而它所在的位置能够捕获异常
# 所以不会报错,结果就是 456 会赋值给 val
val = g.throw(ValueError("一个 ValueError"))
"""
异常:一个 ValueError
"""
print(val)
"""
456
"""

关于生成器的 __next__、send、throw 三个方法的用法我们就说完了,还是比较简单的。

关闭生成器

生成器也是可以关闭的,我们来看一下。

def gen():
    yield 123
    yield 456
    return "result"

g = gen()
# 生成器在 yield 123 处停止
print(g.__next__())  # 123
# 关闭生成器
g.close()
# 生成器一旦关闭,就代表执行完毕了,它的栈帧会被重置为 None
print(g.gi_frame)  # None
try:
    # 再次调用 __next__,会抛出 StopIteration
    g.__next__()
except StopIteration as e:
    # 此时 e.value 为 None
    print(e.value)  # None

无论是显式地关闭生成器,还是正常情况下生成器执行完毕,内部的栈帧都会被重置为 None。而驱动一个已经执行结束的生成器,会抛出 StopIteration 异常,并且异常的 value 属性为 None。

GeneratorExit 异常

这里再来说一说 GeneratorExit 这个异常,如果我们关闭一个生成器(或者生成器被删除时),那么会往里面扔一个 GeneratorExit 进去。

def gen():
    try:
        yield 123
    except GeneratorExit as e:
        print("生成器被删除了")

g = gen()
# 生成器在 yield 123 处暂停
g.__next__()
# 关闭生成器,会往里面扔一个 GeneratorExit
g.close()
"""
生成器被删除了
"""

这里我们捕获了传递的 GeneratorExit,所以 print 语句执行了,但如果没有捕获呢?

def gen():
    yield 123

g = gen()
g.__next__()
g.close()

此时无事发生,但是注意:如果是手动调用 throw 方法扔一个 GeneratorExit 进去,异常还是会抛出来的。

那么问题来了,生成器为什么要提供这样一种机制呢?直接删就完了,干嘛还要往生成器内部丢一个异常呢?答案是为了资源的清理和释放。

在 Python 还未提供原生协程,以及 asyncio 还尚未流行起来的时候,很多开源的协程框架都是基于生成器实现的协程。而创建连接的逻辑,一般都会写在 yield 后面。

def _create_connection():
    # 一些逻辑
    yield conn
    # 一些逻辑

但是这些连接在不用的时候,要不要进行释放呢?答案是肯定的,所以便可以这么做。

def _create_connection():
    # 一些逻辑
    try: 
        yield conn
    except GeneratorExit:
        conn.close()
    # 一些逻辑

这样当我们关闭或删除生成器的时候,就能够自动对连接进行释放了。

不过还有一个需要注意的点,就是在捕获 GeneratorExit 之后,不可以再执行 yield,否则会抛出 RuntimeError。

def gen():
    try:
        yield 123
    except GeneratorExit:
        print("生成器被删除")
        yield

g = gen()
g.__next__()
g.close()
"""
生成器被删除
Traceback (most recent call last):
  File "...", line 10, in <module>
    g.close()
RuntimeError: generator ignored GeneratorExit
"""

调用 close 方法时,如果没有成功捕获 GeneratorExit,那么生成器会直接关闭,不会有任何事情发生。但如果捕获了 GeneratorExit,那么可以在对应的语句块里做一些资源清理逻辑,但不应该再出现 yield。

而上面的例子中出现了 yield,所以解释器会抛出 RuntimeError,因为没捕获 GeneratorExit 还好,解释器不会有什么抱怨。但如果捕获了 GeneratorExit,说明我们知道生成器是被关闭了,既然知道,那里面还出现 yield 的意义何在呢?

当然啦,如果出现了 yield,但没有执行到,则不会抛 RuntimeError。

def gen():
    try:
        yield 123
    except GeneratorExit:
        print("生成器被删除")
        return
        yield

g = gen()
g.__next__()
g.close()
print("------------")
"""
生成器被删除
------------
"""

遇见 yield 之前就返回了,所以此时不会出现 RuntimeError。

注意:GeneratorExit 继承自 BaseException,它无法被 Exception 捕获。

yield from 的用法

当函数内部出现了 yield 关键字,那么它就是一个生成器函数,对于 yield from 而言亦是如此。那么问题来了,这两者之间有什么区别呢?

from typing import Generator

def gen1():
    yield [1, 2, 3]

def gen2():
    yield from [1, 2, 3]

g1 = gen1()
g2 = gen2()
# 两者都是生成器
print(isinstance(g1, Generator))  # True
print(isinstance(g2, Generator))  # True

print(g1.__next__())  # [1, 2, 3]
print(g2.__next__())  # 1

结论很清晰,yield 对后面的值没有要求,会直接将其返回。而 yield from 后面必须跟一个可迭代对象(否则报错),然后每次返回可迭代对象的一个值。

def gen():
    yield from [1, 2, 3]
    return "result"

g = gen()
print(g.__next__())  # 1
print(g.__next__())  # 2
print(g.__next__())  # 3
try:
    g.__next__()
except StopIteration as e:
    print(e.value)  # result

除了要求必须跟一个可迭代对象,然后每次只返回一个值之外,其它表现和 yield 是类似的。而对于当前这个例子来说,yield from [1, 2, 3] 等价于 for item in [1, 2, 3]: yield item。

所以有人觉得 yield from 貌似没啥用啊,它完全可以用 for 循环加 yield 进行代替。很明显不是这样的,yield from 背后做了非常多的事情,我们稍后说。

这里先出一道思考题:

图片图片

这时候便可以通过 yield 和 yield from 来实现这一点。

def flatten(data):
    for item in data:
        if isinstance(item, list):
            yield from flatten(item)
        else:
            yield item


data = [1, [[[[[3, 3], 5]]], [[[[[[[[[[[[6]]]]], 8]]], "aaa"]]]], 250]]
print(list(flatten(data)))  # [1, 3, 3, 5, 6, 8, 'aaa', 250]

怎么样,是不是很简单呢?

委托生成器

如果单从语法上来看的话,会发现 yield from 貌似没什么特殊的地方,但其实 yield from 还可以作为委托生成器。委托生成器会在调用方和子生成器之间建立一个双向通道,什么意思呢?我们举例说明。

def gen():
    yield 123
    yield 456
    return "result"

def middle():
    res = yield from gen()
    print(f"接收到子生成器的返回值: {res}")

# middle 里面出现了 yield from gen()
# 此时 middle() 便是委托生成器,gen() 是子生成器
g = middle()

# 而 yield from 会在调用方和子生成器之间建立一个双向通道
# 两者是可以互通的,调用 g.send、g.throw 都会直接传递给子生成器
print(g.__next__())  # 123
print(g.__next__())  # 456

# 问题来了,如果再调用一次 __next__ 会有什么后果呢?
# 按照之前的理解,应该会抛出 StopIteration
print(g.__next__())
"""
接收到子生成器的返回值: result
Traceback (most recent call last):
  File "...", line 21, in <module>
    print(g.__next__())
StopIteration
"""

在第三次调用 __next__ 的时候,确实抛了异常,但是委托生成器收到了子生成器的返回值。也就是说,委托生成器在调用方和子生成器之间建立了双向通道,两者是直接通信的,并且当子生成器出现 StopIteration 时,委托生成器还要负责兜底。

委托生成器会将子生成器抛出的 StopIteration 里面的 value 取出来,然后赋值给左侧的变量 res,并在自己内部继续寻找 yield。

换句话说,当子生成器 return 之后,委托生成器会拿到返回值,并将子生成器抛出的异常给捕获掉。但是还没完,因为还要找到下一个 yield,那么从哪里找呢?显然是从委托生成器的内部寻找,于是接下来就变成了调用方和委托生成器之间的通信。

如果在委托生成器内部能找到下一个 yield,那么会将值返回给调用方。如果找不到,那么就重新构造一个 StopIteration,将异常抛出去。此时异常的 value 属性,就是委托生成器的返回值。

def gen():
    yield 123
    return "result"

def middle():
    res = yield from gen()
    return f"委托生成器返回了子生成器的返回值:{res}"

g = middle()
print(g.__next__())  # 123
try:
    g.__next__()
except StopIteration as e:
    print(e.value)  # 委托生成器返回了子生成器的返回值:result

大部分情况下,我们并不关注委托生成器的返回值,我们更关注的是子生成器。于是可以换种写法:

def gen():
    yield 123
    yield 456
    yield 789
    return "result"

def middle():
    yield (yield from gen())

g = middle()
for v in g:
    print(v)
"""
123
456
789
result
"""

所以委托生成器负责在调用方和子生成器之间建立一个双向通道,通道一旦建立,调用方可以和子生成器直接通信。虽然调用的是委托生成器的 __next__、send、throw 等方法,但影响的都是子生成器。

并且委托生成器还可以对子生成器抛出的 StopIteration 异常进行兜底,会捕获掉该异常,然后拿到返回值,这样就无需手动捕获子生成器的异常了。但问题是委托生成器还要找到下一个 yield,并将值返回给调用方,此时这个重担就落在了它自己头上。

如果找不到,还是要将异常抛出来的,只不过抛出的 StopIteration 是委托生成器构建的。而子生成器抛出的 StopIteration,早就被委托生成器捕获掉了。于是我们可以考虑在 yield from 的前面再加上一个 yield,这样就不会抛异常了。

为什么要有委托生成器

我们上面已经了解了委托生成器的用法,不过问题来了,这玩意为啥会存在呢?上面的逻辑,即便不使用 yield from 也可以完成啊。

其实是因为我们上面的示例代码比较简单(为了演示用法),当需求比较复杂时,将生成器内部的部分操作委托给另一个生成器是有必要的,这也是委托生成器的由来。

而委托生成器不仅要能保证调用方和子生成器之间直接通信,还要能够以一种优雅的方式获取子生成器的返回值,于是新的语法 yield from 就诞生了。

但其实 yield from 背后为我们做得事情还不止这么简单,它不单单是建立双向通道、获取子生成器的返回值,它还会处理子生成器内部出现的异常,详细内容可以查看 PEP380。

https://peps.python.org/pep-0380/

这里我们直接给出结论,并通过代码演示一下。

1)子生成器 yield 后面的值,会直接返回给调用方;调用方 send 发送的值,也会直接传给子生成器。

def gen():
    res = yield 123
    yield [res]
    return "result"

def middle():
    yield (yield from gen())

g = middle()
# 子生成器 yield 后面的值,会直接返回给调用方
print(g.__next__())  # 123
# 调用方 send 发送的值,也会直接传给子生成器
print(g.send("小云同学"))  # ['小云同学']

另外还要补充一个细节,如果 yield from 一个已经消耗完毕的生成器,会直接返回 None。

def gen():
    yield 123
    return "result"

def middle():
    sub = gen()
    res = yield from sub
    yield res + " from gen()"
    # 到这里的话,sub = gen() 这个生成器已经被消耗完毕了
    # 如果我们继续 yield from 的话,会直接返回 None
    res = yield from sub
    yield f"res: {res}"

g = middle()
print(g.__next__())  # 123
print(g.__next__())  # result from gen()
# 此处执行 g.__next__() 时
# 委托生成器内部会执行第二个 res = yield from sub
# 但问题是 sub 之前就已经被消耗完了,所以会直接返回 None,然后寻找下一个 yield
print(g.__next__())  # res: None

所以不要对生成器做二次消费。

2)子生成器结束时,最后的 return value 等价于 raise StopIteration(value)。然后该异常会被 yield from 捕获,并将 value 赋值给 yield from 左侧的变量。并且在拿到子生成器的返回值时,委托生成器会继续运行,寻找下一个 yield。

def gen():
    yield 123
    return "result"

def middle():
    res = yield from gen()
    yield res + " from middle()"

g = middle()
print(g.__next__())  # 123
# 子生成器 gen() 在 return 时会抛出 StopIteration
# 然后在委托生成器内部被捕获,并将返回值赋给 res
# 接着继续寻找下一个 yield
print(g.__next__())  # result from middle()

另外补充一点,生成器在 return 时,等价于抛出一个 StopIteration。但异常必须在 return 的时候隐式抛出,如果是在生成器内部 raise StopIteration 则是不合法的。

def gen():
    yield 123
    raise StopIteration("result")

g = gen()
print(g.__next__())  # 123
print(g.__next__())
"""
Traceback (most recent call last):
  File "......", line 3, in gen
    raise StopIteration("result")
StopIteration: result

The above exception was the direct cause of the following exception:

Traceback (most recent call last):
  File "......", line 7, in <module>
    print(g.__next__())
RuntimeError: generator raised StopIteration
"""

此时会引发一个 RuntimeError。

3)如果子生成器在执行的过程中,内部出现了异常,那么会将异常丢给委托生成器。委托生成器会尝试处理该异常,如果处理不了,那么再调用子生成器的 throw 方法将异常扔回去。

def gen():
    yield 123
    raise ValueError("出了个错")
    return "result"

def middle():
    yield from gen()

g = middle()
print(g.__next__())  # 123
# 此时子生成器会抛出 ValueError,而委托生成器没有异常捕获逻辑,无法处理
# 于是会调用子生成器的 throw 方法,将异常重新扔回去,最终由调用方来处理
try:
    print(g.__next__())  # 123
except ValueError as e:
    print(e)  # 出了个错

那如果委托生成器可以处理子生成器抛出的异常呢?

def gen():
    yield 123
    raise ValueError("出了个错")
    return "result"

def middle():
    try:
        yield from gen()
    except ValueError as e:
        yield f"异常:{e}"
    # 当子生成器抛出异常时,它就已经结束了
    yield "result from middle()"

g = middle()
print(g.__next__())  # 123
print(g.__next__())  # 异常:出了个错
print(g.__next__())  # result from middle()

如果委托生成器可以处理子生成器抛出的异常,那么接下来就是调用方和委托生成器之间的事情了。

再比如我们将生成器 close 掉,看看结果会怎样,我们知道它会 throw 一个 GeneratorExit。

def gen():
    yield 123
    return "result"

def middle():
    try:
        yield from gen()
    except GeneratorExit as e:
        print(f"子生成器结束了")

g = middle()
print(g.__next__())  # 123
# 关闭子生成器,会 throw 一个 GeneratorExit
# 然后这个 GeneratorExit 会向上透传给委托生成器
g.close()
"""
子生成器结束了
"""
# 注意:委托生成器也是同理
# 一旦捕获了 GeneratorExit,后续不应该再出现 yield

yield from 算是 Python 里面特别难懂的一个语法了,但如果理解了 yield from,后续理解 await 就会简单很多。

生成器表达式

Python 里面还有一个生成器表达式,我们来看一下。

from typing import Generator

g = (x for x in range(10))
print(isinstance(g, Generator))  # True
print(g)  # <generator object <genexpr> at 0x...>

print(g.__next__())  # 0
print(g.__next__())  # 1

如果表达式是在一个函数里面,那么生成器表达式周围的小括号可以省略掉。

import random

d = [random.randint(1, 10) for _ in range(100)]
# 我们想统计里面大于 5 的元素的总和
# 下面两种做法都是可以的
print(
    sum((x for x in d if x > 5)),
    sum(x for x in d if x > 5)
)  # 397 397

这两种做法是等价的,字节码完全一样。

但要注意,生成器表达式还存在一些陷阱,一不小心就可能踩进去。至于是什么陷阱呢?很简单,一句话:使用生成器表达式创建生成器的时候,in 后面的变量就已经确定了,但其它的变量则不会。举个栗子:

g = (巭孬嫑夯烎 for x in [1, 2, 3])

执行这段代码不会报错,尽管 for 前面那一坨我们没有定义,但不要紧,因为生成器是惰性执行的。但如果我们调用了 g.__next__(),那么很明显就会报错了,会抛出 NameError。

g = (x for x in lst)

但是这段代码会报错:NameError: name 'lst' is not defined,因为 in 后面的变量在创建生成器的时候就已经确定好了。而在创建生成器的时候,发现 lst 没有定义,于是抛出 NameError。

所以,陷阱就来了:

i = 1
g = (x + i for x in [1, 2, 3])
i = 10
# 输出的不是 (2, 3, 4)
print(tuple(g))  # (11, 12, 13)

因为生成器只有在执行的时候,才会去确定变量 i 究竟指向谁,而调用 tuple(g) 的时候 i 已经被修改了。

lst = [1, 2, 3]
g = (x for x in lst)
lst = [4, 5, 6]
print(tuple(g))  # (1, 2, 3)

但这里输出的又是 (1, 2, 3),因为在创建生成器的时候,in 后面的变量就已经确定了,这里会和 lst 指向同一个列表。而第三行改变的只是变量 lst 的指向,和生成器无关。

g = (x for x in [1, 2, 3, 4])
for i in [1, 10]:
    g = (x + i for x in g)

print(tuple(g))

思考一下,上面代码会打印啥?下面进行分析:

  • 初始的 g,可以看成是 (1, 2, 3, 4),因为 in 后面是啥,在创建生成器的时候就确定了;
  • 第一次循环之后,g 就相当于 (1+i, 2+i, 3+i, 4+i);
  • 第二次循环之后,g 就相当于 (1+i+i, 2+i+i, 3+i+i, 4+i+i);

而循环结束后,变量 i 会指向 10,所以打印结果就是 (21, 22, 23, 24)。

生成器与协程

在 Python 还没有引入原生协程的时候,很多开源框架都是基于生成器模拟的协程,最经典的莫过于 Tornado。然而事实上,即便是原生协程,在底层也是基于生成器实现的。

async def native_coroutine():
    return "古明地觉"

try:
    native_coroutine().__await__().__next__()
except StopIteration as e:
    print(e.value)  # 古明地觉

这里没有创建事件循环,而是直接驱动协程执行。我们再演示一段代码,看看让生成器协程和原生协程混合使用会是什么效果。

import asyncio
import time
import types

async def some_task():
    """
    某个耗时较长的任务
    """
    await asyncio.sleep(3)
    return "task result"

async def native_coroutine():
    """
    原生协程
    """
    result = await some_task()
    return f"{result} from native coroutine"

@types.coroutine  # 或者使用 @asyncio.coroutine
def generator_coroutine():
    """
    生成器模拟的协程
    """
    result = yield from some_task()
    return f"{result} from generator coroutine"

async def main():
    start = time.time()
    result = await asyncio.gather(
        native_coroutine(), generator_coroutine()
    )
    end = time.time()
    print(result)
    print(f"耗时:{end - start}")

asyncio.run(main())
"""
['task result from native coroutine', 'task result from generator coroutine']
耗时:3.0016210079193115
"""

从效果上来看,两种方式是等价的。yield from 会驱动协程对象执行,当协程执行 return 的时候,会抛出一个 StopIteration 异常。然后 yield from 再将异常捕获掉,并取出里面的返回值。

但使用装饰器 + yield from 这种方式不够优雅,并且 yield from 即用于生成器,又用于协程,容易给人造成困惑。为此 Python 从 3.5 开始引入了原生协程,使用 async def  定义协程,使用 await 驱动协程执行。

关于协程的更多细节,后续在介绍协程的时候再说,总之我们现在应该使用原生协程,至于 yield from 就让它留在历史的尘埃中吧,我们只需要知道整个演进过程即可。

小结

以上我们就从 Python 的角度梳理了一遍生成器相关的知识,下一篇文章我们将从源码的角度来分析生成器的具体实现。

责任编辑:武晓燕 来源: 古明地觉的编程教室
相关推荐

2024-09-26 07:27:27

2021-10-20 08:49:30

Vuexvue.js状态管理模式

2019-01-24 09:46:38

PelicanPython生成器

2023-08-01 08:27:15

Java I/ONIO

2022-03-03 08:30:41

GeneratorES6函数

2023-10-16 08:16:31

Bean接口类型

2023-02-10 10:56:56

KubernetesLimitsRequests

2024-04-12 12:19:08

语言模型AI

2019-01-29 09:18:00

开源代码GitHub

2022-09-29 10:26:59

iOSScaffoldflutter

2014-10-20 10:23:37

2022-03-24 08:51:48

Redis互联网NoSQL

2022-10-12 07:24:18

大文件哈希算法Hash

2018-11-19 10:10:51

Python数据库随机生成器

2021-12-01 11:40:14

Python 输入输出

2022-05-05 16:47:24

Docker网络空间容器

2018-02-02 11:17:42

IaaSPaaSSaaS

2021-04-12 06:08:16

HiveSpark大数据

2020-12-21 07:54:46

CountDownLa用法源码

2019-11-06 17:30:57

cookiesessionWeb
点赞
收藏

51CTO技术栈公众号