Python因其全局解释器锁(GIL)而声名狼藉。GIL限制了Python解释器一次只能执行一个线程。在现代多核CPU上,这是一个问题,因为程序无法利用多个核心。不过,尽管存在这种限制,Python仍已成为从后端Web应用到AI/ML和科学计算等领域的顶级语言。
1、训练数据管道的结构
对于大多数后端Web应用来说,GIL的限制并不是一个约束,因为它们通常受到I/O的限制。在这些应用中,大部分时间只是等待来自用户、数据库或下游服务的输入。系统只需具备并发性,而不一定需要并行性。Python解释器在执行I/O操作时会释放GIL,因此当线程等待I/O完成时,就会给另一个线程获得GIL并执行的机会。
GIL的限制不会影响大多数计算密集型的AI/ML和科学计算工作负载,因为像NumPy、TensorFlow和PyTorch等流行框架的核心实际上是用C++实现的,并且只有Python的API接口。大部分计算可以在不获取GIL的情况下进行。这些框架使用的底层C/C++内核库(如OpenBLAS或Intel MKL)可以利用多个核心而不受GIL的限制。
当同时有I/O和计算任务时会发生什么?
2、使用纯Python的计算任务
具体来说,可以考虑以下两个简单的任务。
import time
def io_task():
start = time.time()
while True:
time.sleep(1)
wake = time.time()
print(f"woke after: {wake - start}")
start = wake
def count_py(n):
compute_start = time.time()
s = 0
for i in range(n):
s += 1
compute_end = time.time()
print(f"compute time: {compute_end - compute_start}")
return s
在这里,通过休眠一秒钟来模拟一个I/O限制的任务,然后唤醒并打印它休眠了多长时间,然后再次休眠。count_py
是一个计算密集型的任务,它简单地对数字n进行计数。如果同时运行这两个任务会发生什么?
import threading
io_thread = threading.Thread(target=io_task, daemnotallow=True)
io_thread.start()
count_py(100000000)
输出结果如下:
woke after: 1.0063529014587402
woke after: 1.009704828262329
woke after: 1.0069530010223389
woke after: 1.0066332817077637
compute time: 4.311860084533691
count_py
需要大约4.3秒才能计数到一百万。但是io_task
在同一时间内运行而不受影响,大约在1秒后醒来,与预期相符。尽管计算任务需要4.3秒,但Python解释器可以预先从运行计算任务的主线程中释放GIL,并给予io_thread
获得GIL并运行的机会。
3、使用numpy的计算任务
现在,本文将在numpy中实现计数函数,并进行与之前相同的实验,但这次要计数到一千万,因为numpy的实现效率更高。
import numpy as np
def count_np(n):
compute_start = time.time()
s = np.ones(n).sum()
compute_end = time.time()
print(f"compute time: {compute_end - compute_start}")
return s
io_thread = threading.Thread(target=io_task, daemnotallow=True)
io_thread.start()
count_np(1000000000)
输出结果如下:
woke after: 1.0001161098480225
woke after: 1.0008511543273926
woke after: 1.0004539489746094
woke after: 1.1320469379425049
compute time: 4.1334803104400635
这显示的结果与上一次实验类似。在这种情况下,不是Python解释器预先释放了GIL,而是numpy自己主动释放了GIL。
这是否意味着在独立的线程中同时运行I/O任务和计算任务总是安全的?
4、使用自定义C++扩展的计算任务
现在,本文将用Python的C++扩展实现计数函数。
// importing Python C API Header
#include <Python.h>
#include <vector>
static PyObject *count(PyObject *self, PyObject *args){
long num;
if (!PyArg_ParseTuple(args, "l", &num))
return NULL;
long result = 0L;
std::vector<long> v(num, 1L);
for (long i=0L; i<num; i++) {
result += v[i];
}
return Py_BuildValue("l", result);
}
// defining our functions like below:
// function_name, function, METH_VARARGS flag, function documents
static PyMethodDef functions[] = {
{"count", count, METH_VARARGS, "Count."},
{NULL, NULL, 0, NULL}
};
// initializing our module informations and settings in this structure
// for more informations, check head part of this file. there are some important links out there.
static struct PyModuleDef countModule = {
PyModuleDef_HEAD_INIT, // head informations for Python C API. It is needed to be first member in this struct !!
"count", // module name
NULL,
-1,
functions // our functions list
};
// runs while initializing and calls module creation function.
PyMODINIT_FUNC PyInit_count(void){
return PyModule_Create(&countModule);
}
可以通过运行python setup.py build
来构建扩展,使用以下setup.py
:
from distutils.core import setup, Extension
count_module = Extension('count', sources=['count.cpp'])
setup(name='python_count_extension',
versinotallow='0.1',
descriptinotallow='An Example For Python C Extensions',
ext_modules=[count_module],
)
然后,使用作为自定义扩展实现的计数函数运行实验:
import count
def count_custom(n):
compute_start = time.time()
s = count.count(n)
compute_end = time.time()
print(f"compute time: {compute_end - compute_start}")
return s
io_thread = threading.Thread(target=io_task, daemnotallow=True)
io_thread.start()
count_custom(1000000000)
得到如下结果:
woke after: 4.414866924285889
compute time: 4.414893865585327
在这种情况下,计算任务持有GIL,并阻止I/O线程运行。
Python解释器只能在两个Python字节码指令之间预先释放GIL,在扩展中,是否自愿释放GIL取决于扩展的实现。
在这种情况下,本例进行了一个不会影响任何Python对象的琐碎计算,因此可以在C++的计数函数中使用宏Py_BEGIN_ALLOW_THREADS
和Py_END_ALLOW_THREADS
来释放GIL:
static PyObject *count(PyObject *self, PyObject *args){
long num;
if (!PyArg_ParseTuple(args, "l", &num))
return NULL;
long result = 0L;
Py_BEGIN_ALLOW_THREADS
std::vector<long> v(num, 1L);
for (long i=0L; i<num; i++) {
result += v[i];
}
Py_END_ALLOW_THREADS
return Py_BuildValue("l", result);
}
使用这种实现方式,当重新运行实验时,会得到如下结果:
woke after: 1.0026037693023682
woke after: 1.003467082977295
woke after: 1.0028629302978516
woke after: 1.1772480010986328
compute time: 4.186192035675049
5、结论
在使用Python时,了解GIL是很重要的。在大多数常见情况下,可能不会遇到它的限制。但是,如果使用包装C/C++库的第三方Python包(除了标准的NumPy、SciPy、TensorFlow或PyTorch),在涉及到任何重型计算时可能会遇到一些问题。在开发自定义扩展时,最好在进行重型计算之前释放GIL,以便其他Python线程有机会运行。